MaxKB安装和使用体验
MaxKB是和1panel一个团队开发的,想起来了以前使用cpanel、da、WDCP、AppNode啥的面板时候了,一转眼又已经过去好多年了。现在时代发展了,来做知识库面板好像也不是不行,算是很对口了。MaxKB也提供了很完善的安装文档,我在此处选择的是离线安装,步骤可以参考官方文档:离线安装 - MaxKB 文档写本文时,最新的版本是1.10.1-LTS 版:下载后是-offline.tar.
MaxKB是和1panel一个团队开发的,想起来了以前使用cpanel、da、WDCP、AppNode啥的面板时候了,一转眼又已经过去好多年了。现在时代发展了,来做知识库面板好像也不是不行,算是很对口了。MaxKB也提供了很完善的安装文档,我在此处选择的是离线安装,步骤可以参考官方文档:离线安装 - MaxKB 文档写本文时,最新的版本是1.10.1-LTS 版:下载后是-offline.tar.
本次捣鼓的是Open WebUI,开源的AI托管平台,带有知识库应用。Open WebUI是一个可扩展、功能丰富且用户友好的自托管 AI 平台,设计为完全离线运行。它支持多种大型语言模型(LLM)运行器,如 Ollama 和与 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。官方提供了很详细的安装方法: 快速上手 | Open WebUI比较常规的安装
最近捣鼓了PaddleSeg中的PP-HumanSeg项目,人像分割。这个项目发布时间较早,根据描述,已经广泛应用在了百度视频会议中,并支持多端,多种网络架构。我使用的环境是Python 3.12.3,PaddleSeg 2.10。安装项目根目录里面提供了pip install -r requirements.txt,直接安装即可。paddleseg需要安装源码目录的版本,别使用pip直接安装。(
LLaMA-Factory提供了简单易用的WebUI对模型进行微调,是一个非常好用的微调平台。LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调官方提供了详细的教程:安装 - LLaMA Factory。# 拉取源 git clo
从海鲜市场买了两块3T的SAS盘,硬盘本身是日立的HUS72303CLAR3000和HUS724030ALS640,都是3.5寸,7200转的硬盘,橙色倒是还凑合,有个9新,原来的旧标已经撕下来了,SMART信息不知道被清理了多少次了,满扫倒是还能保持全绿。最扯的是,我买的时候,两块一起买的,标也是差不多的,盘芯正好赶上了日立(HITACHI)改名为昱科(HGST)的时候,两块硬盘虽然关键参数上差
最近捣鼓了一下Python下的开源库rembg,一个非常好用的背景移除工具,支持各种各样的物体用于移除背景。并且支持多种模型,还支持微调训练。具体可以看官网:danielgatis/rembg: Rembg is a tool to remove images background。本文使用的环境是ubuntu 22.04,CUDA 12.2。环境准备首先需要知道自己的硬件环境(CUDA)和ONN
环境准备需要先拉取meta-adi、AD的Linux分支(2022_R2)、使用的系统是Ubuntu 22.04。analogdevicesinc/linux: Linux kernel variant from Analog Devices; see README.md for detailsanalogdevicesinc/meta-adi at 2019_R2可以参考教程:meta-adi/
llama.cpp提供了各种LLM的处理工具,其中convert_hf_to_gguf.py,就可以帮助我们将safetensors模型转换为gguf格式,其中,模型的大小不会改变,只是格式被修改了:具体可以看官方项目:ggml-org/llama.cpp: LLM inference in C/C++1.克隆官方项目git clone https://github.com/ggerganov/l