⚠申明: 未经许可,禁止以任何形式转载,若要引用,请标注链接地址。 全文共计3726字,阅读大概需要10分钟
🌈更多学习内容, 欢迎👏关注👀【文末】我的个人微信公众号:不懂开发的程序猿

❗❗❗知识付费,🈲止白嫖,有需要请后台私信或【文末】个人微信公众号联系我

Docker容器本地私有化部署DeepSeek--基于国产操作系统

0.引言

2025年过年前后这段时间,深度求索公司开源的deepseek大语言模型屡次登顶热搜。公司领导过年期间发消息说,想要打造本地私有化的企业级知识库,因此根据现有工具链,在国产自研服务器(麒麟920操作系统,海思处理器arm64架构)搭建deepseek。

1. 启动Ollama

​ 1 拉取 Ollama Docker 镜像:

sudo docker pull ollama/ollama

​ 2 运行 Ollama 容器:

sudo docker run -d --name ollama -p 11434:11434 ollama/ollama

​ 3 验证 Ollama 服务:

sudo docker logs ollama

在这里插入图片描述

如何访问 Ollama 服务
由于 Ollama 服务在 Docker 容器中运行,您可以通过以下方式访问它:
1 本地访问:
◦ 如果您在同一台机器上运行 Ollama 容器,可以通过http://127.0.0.1:11434 访问 Ollama 服务。
◦ 如果您使用的是浏览器,直接在地址栏输入 http://localhost:11434。
2 远程访问:
◦ 如果您需要从其他机器访问 Ollama 服务,您需要确保宿主机的防火墙允许外部访问 11434 端口。
◦ 使用宿主机的 IP 地址(例如 http://<宿主机IP>:11434)来访问 Ollama 服务。

在这里插入图片描述

2. 运行deepseek-r1:8b大模型

在 Docker 容器中运行 Ollama 时,您可以通过以下命令查看 Ollama 的版本:

docker exec -it ollama /bin/sh -c "ollama --version"

这将进入 Ollama 容器并执行 ollama --version 命令,显示 Ollama 的版本信息

运行大模型 ollama run deepseek-r1:8b

  1. 拉取模型
    在运行模型之前,您需要先拉取模型。执行以下命令来下载 deepseek-r1:8b 模型:
docker exec -it ollama /bin/sh -c "ollama pull deepseek-r1:1.5b"

这将从 Ollama 的模型库中下载 deepseek-r1:8b 模型

  1. 运行模型
    下载完成后,您可以使用以下命令运行模型:
docker exec -it ollama /bin/sh -c "ollama run deepseek-r1:1.5b"
docker exec -it ollama /bin/sh -c "ollama stop deepseek-r1:1.5b"

运行模型后,您可以在终端与模型进行交互,输入您的问题或任务,模型将提供相应的响应。

在这里插入图片描述

3.验证模型

您可以发送一个测试请求来验证模型是否正常运行。使用 curl 命令发送一个请求:

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:8b",
  "prompt": "请用五句话介绍量子计算",
  "stream": false
}'

如果模型正常运行,您将收到一个包含生成文本的 JSON 格式响应

在这里插入图片描述
在这里插入图片描述

4.其他常用命令

查看已安装的模型:

docker exec -it ollama /bin/sh -c "ollama list"

查看运行中的模型实例:

docker exec -it ollama /bin/sh -c "ollama ps"

删除模型:

docker exec -it ollama /bin/sh -c "ollama rm deepseek-r1:8b"

这些命令可以帮助您管理 Ollama 的模型和运行状态。

5.open webui

这里如果直接docker下载镜像,很慢。

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  1. 拉取 Open WebUI 镜像

先在本机上挂载VPN,下好images

docker pull ghcr.io/open-webui/open-webui:main

导出images

docker save ghcr.io/open-webui/open-webui > main.tar

上传到服务器,再load下images

docker load < main.tar
  1. 运行 Open WebUI 容器,并将其与 Ollama 服务连接

    如果Ollama在本机电脑上运行,就用这个命令

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

参数说明:
-d:后台运行容器。
-p 3000:8080:将宿主机的 3000 端口映射到容器的 8080 端口。
--add-host=host.docker.internal:host-gateway:添加主机映射,使容器能够访问宿主机上的 Ollama 服务。
-v open-webui:/app/backend/data:将容器内的数据目录挂载到 Docker 卷 open-webui,确保数据持久化。
--name open-webui:为容器命名为 open-webui。
--restart always:设置容器在退出时自动重启。

  1. 访问 Open WebUI
    运行容器后,您可以通过浏览器访问 Open WebUI 的 Web 界面:
    http://localhost:3000

在这里插入图片描述
在这里插入图片描述

  1. 首次访问
    首次访问时,您需要创建一个管理员账户。输入用户名和密码后,点击“Create Account”完成注册。

  2. 连接到 Ollama
    在 Open WebUI 的设置页面中,确保 Ollama 的 API 地址正确。例如:
    ollama_api_url: http://host.docker.internal:11434

  3. 运行大模型
    在 Open WebUI 中,您可以选择并运行不同的大模型。例如,运行 deepseek-r1:8b 模型:
    1 在 Open WebUI 的界面中,选择模型 deepseek-r1:8b。
    2 输入您的问题或指令,点击“Send”按钮,等待模型生成回复。

    在这里插入图片描述

  4. 停止和删除容器
    如果需要停止和删除 Open WebUI 容器,可以使用以下命令:

docker stop open-webui
docker rm open-webui

–end–

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐