本地部署DeepSeek R1 并接入 Dify,实现专属的AI智能体
本地部署DeepSeek R1 并接入 Dify,实现专属的AI智能体
YuXiang本篇文章将分享如何使用 Ollama + DeepSeek + Dify 搭建本地知识库,让你轻松拥有一个专属的智能助手!
为什么要做这件事?
在当前的环境下,AI所构建的专属知识库正重塑企业与个人的效能革命。对企业而言,它实现了经营数据的智能聚合与深度挖掘,将分散的日报、项目进展转化为实时分析看板,节省80%人工整理成本,同时揭示业务隐性规律,成为战略决策的”数字大脑”。对个人而言,这一系统如同智能助手,持续记录日报、项目心得与技能突破,自动提炼年度成果。无论是申请晋升的总结陈述,还是复盘成长路径,或是写一篇年终总结报告,知识库都能将零散记录转化为专业叙事,让努力“可视化”。在AI的赋能下,职场人终于能告别年终“突击写报告”的焦虑,实现真正的持续精进。
1. 工具介绍
1.1 DeepSeek:低成本、高性能的 AI 模型
DeepSeek 是一款由深度求索公司开发的高性能 AI 大模型,基于深度学习和多模态数据融合技术,采用了 Transformer 架构和跨模态协同算法。在极低成本下实现了与国际顶尖模型相媲美的性能表现,中文理解与输出能力更是超越了 ChatGPT 等顶尖模型。DeepSeek 的核心优势包括:
- 多模态交互:支持文本、图像、PDF 等多格式输入,还能进行中英文 OCR 识别和图表数据提取。
- 实时信息获取:支持联网更新知识库,每日更新,确保信息的时效性。
- 专业领域强化:在数学公式推导、代码生成与调试、学术文献解析等方面表现出色。
- 隐私保护:端到端加密,通过三级等保认证,确保数据安全。
1.2 Ollama:本地部署的神器
Ollama 是一个开源工具,专门用来在本地运行大语言模型(LLMs)。它的厉害之处在于,我们可以在自己的电脑上,不依赖云服务,就能高效地加载和运行这些强大的 AI 模型。这就像是把一个超级智能的“大脑”装进了自己的口袋,随时随地都能用。以下是 Ollama 的主要特点:
- 本地部署,隐私保护:Ollama 支持在 Windows、macOS 和 Linux 等系统本地运行模型,无需依赖云端,数据交互全程在本地完成,避免隐私泄露
- 丰富模型库,开箱即用:Ollama 预集成了多种主流开源模型,如 Llama 2、DeepSeek-R1、Mistral 等,覆盖文本生成、代码开发、多语言翻译等场景。
- 极简交互,命令行与 API 双支持:。
1.3 1. Dify:AI 应用开发平台
Dify 是一个开源的 LLM(大语言模型)应用开发平台,功能超强大。它支持自定义 AI 工作流,能实现复杂任务自动化;还有 RAG 管道,通过检索增强生成技术,让文档检索和问答超准;多种主流 LLM 模型都能集成管理,还提供丰富的日志和监控功能。Dify 的架构也很清晰,分为模型层、数据处理层、应用层和管理层,能满足各种需求。
- 灵活的工作流编排:支持可视化拖拽式流程设计,让复杂任务自动化变得简单,无论是文档处理、智能问答,还是数据分析,都能自定义 AI 工作流。
- 强大的 RAG(检索增强生成)能力:内置高效的文档检索与知识增强技术,让 AI 生成的回答更精准、更有依据,特别适合企业知识库、智能客服等场景。
- 多模型统一管理:无缝集成 OpenAI、DeepSeek、Llama 等主流 LLM,支持模型动态切换与对比测试,满足不同业务需求。
- 开放与可扩展架构:清晰的模块化设计(模型层、数据处理层、应用层、管理层),便于二次开发,支持私有化部署,保障数据安全。
- 低代码/无代码友好:即使非技术用户也能通过简单配置快速搭建 AI 应用,大幅降低 LLM 落地门槛。
以下是使用 Ollama 和 Dify 部署 DeepSeek 模型的详细流程。
一、环境准备
1. 安装 Ollama
- 步骤:
- 访问 Ollama 官网,下载对应操作系统的安装包并安装。
- 安装完成后,在命令行输入
ollama --version
,若显示版本信息则说明安装成功。
1 | PS C:\Users\wangy> ollama --version |
2. 部署 DeepSeek 模型
Ollama 支持直接下载并运行预置的 DeepSeek 模型。
访问官网 ollama.com/search 选择一个需要部署的大模型,可以根据电脑配置合理选择需要部署的大模型。
模型选择:
根据显存选择合适版本(例如 7B 模型需 4GB 显存,16B 需 9GB)。模型参数 显存需求(4位量化) 备注 1.5B 1GB 超轻量级,适合低配设备或快速测试。 7B 4GB 平衡性能与资源消耗,推荐普通显卡使用。 14B 9GB 需中端显卡(如 RTX 3060 12GB)。 32B 18GB 需高端显卡(如 RTX 4090 24GB)。 67B 38GB 需多卡或专业级显卡(如 A100 40GB)。 下载命令:
在命令行执行ollama run deepseek-r1:1.5b
(因为下载速度问题,这里以 1.5b 模型为例),等待下载完成。
1 | PS C:\Users\wangy> ollama run deepseek-r1:1.5b |
此时我们已经安装并运行了deepseek r1模型,可以通过命令行的方式和他进行沟通。
二、部署 Dify
1. 安装 Docker
- 访问 Docker 官网下载安装包,完成基础配置(安装过的请忽略)。
修改镜像地址
1 | "registry-mirrors": [ |
2. 安装 Dify
- 下载Dify源码
1
git clone https://github.com/langgenius/dify.git
- 进入 Dify 源代码的 Docker 目录
1
cd dify/docker
- 复制环境配置文件
1
cp .env.example .env
- 启动 Docker 容器
1
docker compose up -d
三、在 Dify 中集成 DeepSeek
1. 配置模型供应商
安装全部完成后,可以在浏览器进入 http://localhost/apps 。第一次进入dify需要注册账号,按注册表单进行即可。
- 登录 Dify,进入 设置 > 模型供应商,选择 Ollama。
- 填写以下信息:
- 模型名称:
deepseek-r1:1.5b
(与下载的模型版本一致)。 - 基础 URL:
- 同机部署且使用 Docker:
http://host.docker.internal:11434
- 其他情况:
http://<Ollama 所在机器的 IP>:11434
。
- 同机部署且使用 Docker:
- 模型名称:
2. 创建应用
- 在 Dify 工作室点击 创建空白应用,选择 聊天助手 类型。
- 填写应用名称和描述,完成后在右上角选择已添加的 DeepSeek 模型。
- 测试提问,例如输入“你是谁”,验证模型响应是否正常。
四、进阶功能
本地知识库集成
- 在 Dify 中添加 文本嵌入模型(如
text-embedding-v2
),入是一种将离散型变量(如单词、句子或者整个文档)转化为连续的向量表示的技术。 - 创建知识库并上传数据(如 PDF、CSV、DOC),后可以选择对应的Embedding模型。
- 系统按照用户自定义的规则将内容拆分为独立的分段。当用户输入问题后,系统自动分析问题中的关键词,并计算关键词与知识库中各内容分段的相关度。
五、注意事项
- 模型限制:DeepSeek R1 是推理模型,不支持函数调用,需使用 DeepSeek V3 实现智能体功能。
- 硬件要求:模型参数量越大,对 GPU 显存需求越高,超过 100B 参数建议使用多卡或云服务器。
总结
通过 Ollama 和 Dify 的本地化部署,可快速构建基于 DeepSeek 的 AI 应用。此方案兼顾灵活性与安全性,适用于个人开发与企业级场景。如需进一步优化性能,可参考 DeepSeek 官方文档调整模型参数或结合 RAG 技术增强知识检索能力。