【分享】DeepSeekR1打造自己的知识库,保姆级教学,全程干货!

科技技术爱好者 2025-02-08 03:16:42

今天给大家介绍下本地部署DeepSeek一个重要应用场景:搭建AI知识库。

一、知识库的好处

好处1:数据在本地电脑上,保护数据安全和个人隐私,对于企业来说尤为重要。

好处2:通用大模型(比如ChatGPT)缺少垂直领域的知识,每次前提问都需要提供背景信息,上传相关资料,才可以得到相对高质量回答。而本地模型+知识库的模式,简单的提问就可以很容易得到垂直定制化,且精准的高质量回答。

好处3:使用时间越长,知识库越丰富,回答质量越高,形成正循环。

好处4:不需要联网,即使官方宕机甚至断网也能正常使用。

二、安装Dify

Dify是一个快速搭建AI应用的项目,支持创建AI聊天机器人、自动化客服等。

本篇主要讲解如何用Dify搭建私人化知识库。

本地找一个不含中文的目录,进入CMD窗口,执行命令,下载Dify项目。

git clone https://github.com/langgenius/difycd dify/docker# .env.example复制,并重命名为 .envcopy .env.example .env

.env是dify的配置文件,保持默认配置就好了。

启动docker,执行命令运行dify。

docker compose up -d

项目启动以后,浏览器访问:http://127.0.0.1/apps/

首次进入需要设置管理员账号,并且登录进入系统。

三、Dify配置

分为2个步骤:添加模型和添加知识库。

页面右上角头像 -> 设置 -> 模型供应商,下拉找到Ollama,【添加模型】。

参数如下:

模型类型:LLM

模型名称:deepseek-r1:7b (根据电脑配置选择1.5b/7b/8b/32b等)

基础URL:http://host.docker.internal:11434

其他参数默认。

配置向量化模型【Nomic-Embed-Text】,它具备强大的长上下文处理能力。下载命令:

ollama pull nomic-embed-text

同样的方式,在Ollama下添加模型,参数如下:

模型类型:Text Embedding

模型名称:nomic-embed-text:latest

基础URL:http://host.docker.internal:11434

其他参数默认。

保存以后,即可完成2个模型的添加。

结果如下图:

配置2个大模型以后,开始配置【知识库】。

回到首页,切换到【知识库】菜单,创建知识库。

数据源有3种:导入已有文件、同步自Notion内容、同步自Web内容。

这次搭建的是本地离线知识库,选第1个,导入准备好的知识库材料,【下一步】。

检索设置选【混合检索】,其他参数不变,保存并处理。

稍等一会,知识库就设置完成了。

四、使用知识库

知识库建好了,怎么用呢?

回到首页,切换到【工作室】菜单,点击【创建空白应用】。

应用类型选【聊天助手】,应用名称和图标,根据自己需要填写。

点击【创建】,下方的上下文栏,就是设置知识库的地方。

点【添加】,在弹窗上,选择刚刚创建的知识库。

设置完成以后,就可以发布使用了。

右上角【发布】-> 【更新】-> 【运行】。

运行以后,页面自动跳转到对话页面,一个自带知识库的AI聊天助手就完成啦。

来测试下。

大模型有一个特点:没有自我意识,对自己不了解。

提一个问题:what is DeepSeek V3?

官方的回答就非常简单,而包含DeepSeek V3论文知识库的本地模型,它的回答就非常准确详细,即使这个问题很简单,不联网搜索。

如果您对源码&技术感兴趣,请点赞+收藏+转发+关注,大家的支持是我分享最大的动力!!!

0 阅读:0

科技技术爱好者

简介:感谢大家的关注