最近我在本地搭建了一个专属的AI知识库,用的是Webman AI+DeepSeek模型组合。整个过程踩了不少坑,现在把实战经验分享给大家,建议收藏备用
一、环境部署准备
1. 安装Redis Stack
docker pull docker.1ms.run/redis/redis-stack
mkdir /home/data/redis -p
docker run --name redis-stack -v /home/data/redis:/data -p 6380:6379 -d redis/redis-stack
注意:必须使用Redis Stack,普通Redis不支持向量存储
2. 安装依赖组件
composer require -W webman/redis illuminate/events
二、模型配置
1. 部署本地模型
ollama pull nomic-embed-text # 向量模型
ollama pull deepseek-r1:14b # 对话模型
可选模型:deepseek-coder-v2:latest、qwen2.5:14b
2. Webman后台配置
在AI模型管理页添加DeepSeek:
- 类型:deepseek
- API地址:http://127.0.0.1:11434
- ApiKey:填写"ollama"
三、数据训练流程
1. 数据准备
推荐格式:
# Webman中间件详解
Webman的中间件系统支持全局/路由/分组等多种配置方式...
注意:单个文件≤9KB,支持zip压缩包上传
训练文本格式示例
2. 上传训练数据
在AI训练集页面上传文件:
3. 开始训练
点击开始训练按钮,训练完成后查看AI训练数据中的向量值:
四、实战测试
在AI助手中选择训练好的角色:
角色提示词:"你是Webman官方助手,只能回答框架相关问题,根据提供的文档内容作答"
五、注意事项
- 硬件要求
- 向量模型:16GB内存(无显卡也可运行)
- 对话模型:建议RTX 3090以上显卡
- 常见问题
- Class 'Redis' not found → 安装PHP Redis扩展
- 训练数据重复 → 使用去重工具预处理
- 扩展建议
- 可通过爬虫抓取官网文档自动生成知识库
- 设置调用频率限制防止滥用
原文链接:https://www.workerman.net/q/13934