讯飞AI开发者社区 DeepSeek技术实践-5分钟快速Ollama部署和本地部署

DeepSeek技术实践-5分钟快速Ollama部署和本地部署

自问世以来,DeepSeek迅速成为全球瞩目的焦点,这不仅归功于其卓越的技术表现,更在于其开源的开放策略和极具竞争力的低成本优势,从而在全球范围内掀起了一股AI应用的新浪潮。DeepSeek-R1作为该系列中的明星产品,凭借其出色的推理能力,在多个权威基准测试中超越了当前顶尖的模型。这一技术上的重大突破,不仅标志着AI领域...

egzosn  ·  2025-02-13 14:16:40 发布

自问世以来,DeepSeek迅速成为全球瞩目的焦点,这不仅归功于其卓越的技术表现,更在于其开源的开放策略和极具竞争力的低成本优势,从而在全球范围内掀起了一股AI应用的新浪潮。

DeepSeek-R1作为该系列中的明星产品,凭借其出色的推理能力,在多个权威基准测试中超越了当前顶尖的模型。这一技术上的重大突破,不仅标志着AI领域的一次显著进步,同时也为开发者提供了一个性价比极高的解决方案。特别值得一提的是,DeepSeek-R1通过大规模的强化学习训练,无需依赖传统的监督微调,即可在数学推理等高难度任务中展现出卓越的性能。

部署要求

本文将详细介绍如何快速部署Deepseek。要快速部署 DeepSeek,首先需要明确 DeepSeek 的具体用途和功能。DeepSeek 可能是一个深度学习模型、工具或平台,用于特定任务(如图像识别、自然语言处理等)。以下是一个通用的步骤指南,帮助普通人快速部署 DeepSeek,快速部署 DeepSeek 的关键在于:

  1. 明确需求。
  2. 准备好环境和依赖。
  3. 获取并配置模型。
  4. 测试和部署。
明确需求

确定 DeepSeek 的具体用途(如文本生成、图像分类等)。

了解 DeepSeek 的输入输出格式以及所需的硬件资源(如 GPU 或 CPU)。

硬件要求
  • 一台服务器或高性能计算机(推荐使用云服务器)
软件要求
  • 操作系统:Linux(推荐Ubuntu 20.04或更高版本)
  • Docker:用于容器化部署

部署逻辑:

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_安装包

说明:

  1. 安装Ollama;
  2. 使用Ollama部署DeepSeek;
  3. ChatBox集成DeepSeek;
  4. CodeArts IDE集成DeepSeek。

部署DeepSeek步骤

1、安装Ollama

Ollama 是一款功能强大的开源工具,专为在本地运行、部署和管理大型语言模型(LLMs)而设计。它提供了简洁的命令行界面,使用户能够轻松下载、运行并与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,非常适合希望在本地环境中使用 LLMs 的开发者和研究人员。

  1. 打开终端: 在云主机桌面上右键选择“Open Terminal Here”,打开命令终端窗口。

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_API_02

  1. 执行安装命令: 在终端中输入以下命令并回车:
curl -fsSL https://ollama.com/install.sh | sh
  • 1.

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_#DeepSeek技术实践#_03

2、部署DeepSeek

借助 Ollama,我们可以轻松部署 DeepSeek 大模型。以下步骤将指导您部署 deepseek-r1:1.5b 版本:

  1. 执行部署命令: 在终端中输入以下命令并回车:
ollama run deepseek-r1:1.5b
  • 1.

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_API_04

2.开始对话: 部署完成后,您可以直接在终端与 DeepSeek 大模型进行对话。

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_API_05

3、安装ChatBox

虽然通过终端可以与 DeepSeek 进行交互,但为了获得更直观和流畅的体验,我们可以使用可视化聊天工具,例如 Open WebUI 或 ChatBox。以下步骤将指导您安装并使用 ChatBox:浏览器下载ChatBox:  https://chatboxai.app/zh 进入Chatboxai点击“免费下载”按钮下载适用于您系统的安装包。

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_安装包_06

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_API_07

打开下载文件所在目录,右键选择“Open Terminal Here”,在终端中输入以下命令并回车:

sudo chmod+x Chatbox-1.9.8-arm64.AppImage
  • 1.

安装zlib 库:

sudo aptupdate
sudo apt install zlib1g zlib1g-dev
  • 1.
  • 2.

安装 zlib 后,使用 find 命令查找 libz.so 文件:

sudo find/ -name libz.so*
  • 1.

设置 LD_LIBRARY_PATH:

export LD_LIBRARY_PATH=/usr/lib/aarch64-linux-gnu:$LD_LIBRARY_PATH
  • 1.

安装libfuse.so.2库:

sudo apt install libfuse2
  • 1.

运行文件,运行应用时禁用沙盒:

./Chatbox-1.9.8-arm64.AppImage --no-sandbox
  • 1.

配置 ChatBox

  1. 选择 API 类型: 首次打开 ChatBox 时,选择“使用自己的API Key或本地模型(Use My Own API Key/Local Model)”。
  2. 选择 Ollama API: 在新的标签页中选择 Ollama API。
  3. 选择模型: 在模型列表中选择 deepseek-r1:1.5b,然后点击保存。

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_DeepSeek技术实践_08

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_安装包_09

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_API_10

配置完成后,您就可以在 ChatBox 的对话框里与 DeepSeek 大模型进行对话了。

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_API_11

DeepSeek API秘钥

目前deepseek已经获得最牛的域名, AI.com

秘钥需要登录: https://platform.deepseek.com/sign_in

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_DeepSeek技术实践_12

API 及定价

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_DeepSeek技术实践_13

DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出 tokens 16 元

Token 用量计算

token 是模型用来表示自然语言文本的基本单位,也是我们的计费单元,可以直观的理解为“字”或“词”;通常 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 token。

一般情况下模型中 token 和字数的换算比例大致如下:

  • 1 个英文字符 ≈ 0.3 个 token。
  • 1 个中文字符 ≈ 0.6 个 token。

但因为不同模型的分词不同,所以换算比例也存在差异,每一次实际处理 token 数量以模型返回为准,您可以从返回结果的 usage 中查看。

本地部署

成功在本地部署DeepSeek AI助手后,您将能够在个人电脑上畅享其强大功能,无需担忧网络延迟和隐私泄露问题。

第一步:环境搭建(安装Ollama)

Ollama 是一款轻量级的AI模型运行框架,兼容多种开源模型,我们将利用它来运行DeepSeek。

重要提示: 近期DeepSeek热度高涨,网络上出现了许多仿冒诈骗网站。请务必通过官方渠道下载软件,警惕任何付费或转账要求。

  1. 获取 Ollama
  • 前往 Ollama 官方网站。
  • 根据您的操作系统选择相应的安装包(Windows 选择 .exe,Mac 选择 .dmg)。
  • 下载完成后,按照提示完成安装:
  • Windows:双击安装包,按照向导操作即可。
  • Mac:将 Ollama 图标拖拽至 Applications 文件夹。

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_API_14

2. 验证安装 

安装完成后,打开终端(Windows 按 Win + R 输入 cmd,Mac 直接打开 Terminal),然后输入:ollama list

输入以下命令:

复制

ollama list
  • 1.

如果终端显示类似 llama3 的模型名称,则说明安装成功。

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_API_15

注意事项

  • 确保您的系统已更新至最新版本,以避免兼容性问题。
  • 安装过程中,建议暂时关闭杀毒软件,防止其误报拦截。
  • 保持网络连接稳定,下载过程可能需要传输超过 300MB 的数据。
第二步:部署DeepSeek模型

DeepSeek 提供了多种参数版本,我们推荐:

  • 普通用户: 选择 8B 版本,适用于日常对话、写作等场景。
  • 高性能显卡用户(显存 16GB 以上): 可选择 16B 版本,体验更强大的性能。
  1. 获取并安装模型
  • 访问 Ollama 模型库,搜索 deepseek-r1
  • 复制对应版本的安装命令,并在终端中运行:
ollama run deepseek-r1:8b
  • 1.

(如果您选择 16B 版本,将 8b 替换为 16b)
首次运行时,系统会自动下载约 5GB 的模型文件,请耐心等待。

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_API_16

2.测试模型
安装完成后,在终端中输入:

说一句有趣的新年祝福
  • 1.

如果模型能够成功回应,则说明部署成功!

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_DeepSeek技术实践_17

如果模型成功回应,说明部署无误!

第三步:安装可视化界面(Chatbox AI)

虽然终端交互方便快捷,但如果您更倾向于使用类似ChatGPT的可视化界面,可以安装Chatbox AI。

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_DeepSeek技术实践_18

1. 下载 Chatbox

  • 访问 Chatbox 官网,下载对应系统的安装包
  • 按照默认设置完成安装

2. 连接本地模型

  • 打开 Chatbox,进入设置界面。
  • 在模型设置中选择:
  • API 类型:Ollama API
  • 模型名称:deepseek-r1:8b
  • 点击“检查连接”,如果状态正常,即可开始使用。
  • DeepSeek技术实践-5分钟快速Ollama部署和本地部署_#DeepSeek技术实践#_19

3. 进阶设置(可选)

DeepSeek技术实践-5分钟快速Ollama部署和本地部署_API_20

  • 温度值: 建议设置为 0.3-0.7,数值越低,AI 的回答越保守。
  • 最大生成长度: 建议设置为 2048 tokens,以获得更丰富的回答。
  • 连续对话模式: 开启后,可以使对话更加连贯自然。
第四步:优化交互和性能

为了让AI助手更好地为您服务,您可以尝试以下方法:

  1. 释放系统资源: 在运行AI程序时,尽量关闭其他占用大量内存的软件,例如大型游戏、视频编辑软件等,以确保AI能够获得充足的计算资源。
  2. 拆分复杂问题: 当您遇到复杂的问题时,可以尝试将其拆分成几个更小、更具体的问题,并逐步向AI提问。这样可以帮助AI更准确地理解您的需求,并提供更精准的答案。
  3. 尝试英文关键词: 在某些情况下,使用英文关键词进行搜索或提问,可能会获得更快的响应速度和更丰富的结果。
  4. 定期重启服务: 如果您使用的是Ollama等本地部署的AI服务,建议您定期重启服务,以释放内存并清除缓存,确保AI始终保持最佳运行状态。

总  结

学习 Deepseek 的部署和调用是一个非常有价值的过程,它不仅让我掌握了一项实用的技能,也为我打开了深度学习世界的大门。

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐

  • 浏览量 1491
  • 收藏 0
  • 0

所有评论(0)

查看更多评论 
已为社区贡献10条内容