本地部署DeepSeek R1 并接入 Dify,实现专属的AI智能体

本篇文章将分享如何使用 Ollama + DeepSeek + Dify 搭建本地知识库,让你轻松拥有一个专属的智能助手!

为什么要做这件事?

在当前的环境下,AI所构建的专属知识库正重塑企业与个人的效能革命。对企业而言,它实现了经营数据的智能聚合与深度挖掘,将分散的日报、项目进展转化为实时分析看板,节省80%人工整理成本,同时揭示业务隐性规律,成为战略决策的”数字大脑”。对个人而言,这一系统如同智能助手,持续记录日报、项目心得与技能突破,自动提炼年度成果。无论是申请晋升的总结陈述,还是复盘成长路径,或是写一篇年终总结报告,知识库都能将零散记录转化为专业叙事,让努力“可视化”。在AI的赋能下,职场人终于能告别年终“突击写报告”的焦虑,实现真正的持续精进。


1. 工具介绍

1.1 DeepSeek:低成本、高性能的 AI 模型

DeepSeek 是一款由深度求索公司开发的高性能 AI 大模型,基于深度学习和多模态数据融合技术,采用了 Transformer 架构和跨模态协同算法。在极低成本下实现了与国际顶尖模型相媲美的性能表现,中文理解与输出能力更是超越了 ChatGPT 等顶尖模型。DeepSeek 的核心优势包括:

  1. 多模态交互:支持文本、图像、PDF 等多格式输入,还能进行中英文 OCR 识别和图表数据提取。
  2. 实时信息获取:支持联网更新知识库,每日更新,确保信息的时效性。
  3. 专业领域强化:在数学公式推导、代码生成与调试、学术文献解析等方面表现出色。
  4. 隐私保护:端到端加密,通过三级等保认证,确保数据安全。

Deepseek

1.2 Ollama:本地部署的神器

Ollama 是一个开源工具,专门用来在本地运行大语言模型(LLMs)。它的厉害之处在于,我们可以在自己的电脑上,不依赖云服务,就能高效地加载和运行这些强大的 AI 模型。这就像是把一个超级智能的“大脑”装进了自己的口袋,随时随地都能用。以下是 Ollama 的主要特点:

  1. 本地部署,隐私保护:Ollama 支持在 Windows、macOS 和 Linux 等系统本地运行模型,无需依赖云端,数据交互全程在本地完成,避免隐私泄露
  2. 丰富模型库,开箱即用:Ollama 预集成了多种主流开源模型,如 Llama 2、DeepSeek-R1、Mistral 等,覆盖文本生成、代码开发、多语言翻译等场景。
  3. 极简交互,命令行与 API 双支持:。

Ollama

1.3 1. Dify:AI 应用开发平台

Dify 是一个开源的 LLM(大语言模型)应用开发平台,功能超强大。它支持自定义 AI 工作流,能实现复杂任务自动化;还有 RAG 管道,通过检索增强生成技术,让文档检索和问答超准;多种主流 LLM 模型都能集成管理,还提供丰富的日志和监控功能。Dify 的架构也很清晰,分为模型层、数据处理层、应用层和管理层,能满足各种需求。

  1. 灵活的工作流编排:支持可视化拖拽式流程设计,让复杂任务自动化变得简单,无论是文档处理、智能问答,还是数据分析,都能自定义 AI 工作流。
  2. 强大的 RAG(检索增强生成)能力:内置高效的文档检索与知识增强技术,让 AI 生成的回答更精准、更有依据,特别适合企业知识库、智能客服等场景。
  3. 多模型统一管理:无缝集成 OpenAI、DeepSeek、Llama 等主流 LLM,支持模型动态切换与对比测试,满足不同业务需求。
  4. 开放与可扩展架构:清晰的模块化设计(模型层、数据处理层、应用层、管理层),便于二次开发,支持私有化部署,保障数据安全。
  5. 低代码/无代码友好:即使非技术用户也能通过简单配置快速搭建 AI 应用,大幅降低 LLM 落地门槛。
    Dify

以下是使用 Ollama 和 Dify 部署 DeepSeek 模型的详细流程。

一、环境准备

1. 安装 Ollama

  • 步骤:
    1. 访问 Ollama 官网,下载对应操作系统的安装包并安装。
    2. 安装完成后,在命令行输入 ollama --version,若显示版本信息则说明安装成功。
1
2
PS C:\Users\wangy> ollama --version
ollama version is 0.6.8

2. 部署 DeepSeek 模型

Ollama 支持直接下载并运行预置的 DeepSeek 模型。
访问官网 ollama.com/search 选择一个需要部署的大模型,可以根据电脑配置合理选择需要部署的大模型。

  • 模型选择:
    根据显存选择合适版本(例如 7B 模型需 4GB 显存,16B 需 9GB)。

    模型参数 显存需求(4位量化) 备注
    1.5B 1GB 超轻量级,适合低配设备或快速测试。
    7B 4GB 平衡性能与资源消耗,推荐普通显卡使用。
    14B 9GB 需中端显卡(如 RTX 3060 12GB)。
    32B 18GB 需高端显卡(如 RTX 4090 24GB)。
    67B 38GB 需多卡或专业级显卡(如 A100 40GB)。
  • 下载命令:
    在命令行执行 ollama run deepseek-r1:1.5b(因为下载速度问题,这里以 1.5b 模型为例),等待下载完成。

1
2
3
4
5
6
7
8
9
PS C:\Users\wangy> ollama run deepseek-r1:1.5b
>>> 你是谁
<think>

</think>

您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。

>>>

此时我们已经安装并运行了deepseek r1模型,可以通过命令行的方式和他进行沟通。


二、部署 Dify

1. 安装 Docker

  • 访问 Docker 官网下载安装包,完成基础配置(安装过的请忽略)。

Docker

修改镜像地址

1
2
3
4
5
6
7
8
9
10
11
12
"registry-mirrors": [
"https://hub-mirror.c.163.com",
"https://docker.m.daocloud.io",
"https://ghcr.nju.edu.cn",
"https://mirror.baidubce.com",
"http://dockerhub.azk8s.cn",
"https://mirror.ccs.tencentyun.com",
"https://docker.mirrors.ustc.edu.cn",
"https://docker.nju.edu.cn",
"https://2h3po24q.mirror.aliyuncs.com",
"https://docker.1ms.run"
]

2. 安装 Dify

  1. 下载Dify源码
    1
    git clone https://github.com/langgenius/dify.git
  2. 进入 Dify 源代码的 Docker 目录
    1
    cd dify/docker
  3. 复制环境配置文件
    1
    cp .env.example .env
  4. 启动 Docker 容器
    1
    docker compose up -d

安装Dify流程图


三、在 Dify 中集成 DeepSeek

1. 配置模型供应商

安装全部完成后,可以在浏览器进入 http://localhost/apps 。第一次进入dify需要注册账号,按注册表单进行即可。

  1. 登录 Dify,进入 设置 > 模型供应商,选择 Ollama。
  2. 填写以下信息:
    • 模型名称:deepseek-r1:1.5b(与下载的模型版本一致)。
    • 基础 URL:
      • 同机部署且使用 Docker:http://host.docker.internal:11434
      • 其他情况:http://<Ollama 所在机器的 IP>:11434
        OllamaSetting

2. 创建应用

  1. 在 Dify 工作室点击 创建空白应用,选择 聊天助手 类型。
  2. 填写应用名称和描述,完成后在右上角选择已添加的 DeepSeek 模型。
  3. 测试提问,例如输入“你是谁”,验证模型响应是否正常。

验证模型响应是否正常


四、进阶功能

本地知识库集成

  • 在 Dify 中添加 文本嵌入模型(如 text-embedding-v2),入是一种将离散型变量(如单词、句子或者整个文档)转化为连续的向量表示的技术。
  • 创建知识库并上传数据(如 PDF、CSV、DOC),后可以选择对应的Embedding模型。

本地知识库

  • 系统按照用户自定义的规则将内容拆分为独立的分段。当用户输入问题后,系统自动分析问题中的关键词,并计算关键词与知识库中各内容分段的相关度。

五、注意事项

  1. 模型限制:DeepSeek R1 是推理模型,不支持函数调用,需使用 DeepSeek V3 实现智能体功能。
  2. 硬件要求:模型参数量越大,对 GPU 显存需求越高,超过 100B 参数建议使用多卡或云服务器。

总结

通过 Ollama 和 Dify 的本地化部署,可快速构建基于 DeepSeek 的 AI 应用。此方案兼顾灵活性与安全性,适用于个人开发与企业级场景。如需进一步优化性能,可参考 DeepSeek 官方文档调整模型参数或结合 RAG 技术增强知识检索能力。