docker部署deepseek
docker部署deepseek
使用docker-compose.yml部署deepseek
version: "3"
name: deepseek
networks:
deepseek_net:
driver: bridge
services:
open-webui:
container_name: open-webui # 容器名称
image: ghcr.io/open-webui/open-webui:main
ports:
- "3000:8080"
restart: always # 容器重启策略
environment:
- OLLAMA_BASE_URL=http://ollama:11434
volumes:
- ./deepseek:/work
- ./deepseek/open-webui:/app/backend/data # 卷挂载(OpenWebUI数据目录)
networks:
- deepseek_net
ollama:
image: ollama/ollama # 镜像名称
container_name: ollama # 容器名称
ports:
- "11434:11434" # 端口映射
volumes:
- ./deepseek/ollama/root:/root # 卷挂载(Ollama数据目录)
- ./deepseek:/work
restart: always # 容器重启策略
networks:
- deepseek_net
# linux下使用watchtower自动更新容器
# watchtower:
# container_name: watchtower # 容器名称
# image: containrrr/watchtower
# volumes:
# - /var/run/docker.sock:/var/run/docker.sock
# command: --interval 300 open-webui
# depends_on:
# - open-webui # 依赖服务
# networks:
# - deepseek_net
docker-compose up -d
启动后,进入ollama容器,下载deepseek模型
docker exec -it 358b6f60ffe9 /bin/bash
ollama pull deepseek-r1:7b
ollama run deepseek-r1:7b
在浏览器打开http://localhost:3000,注册后进入网站,就可以使用deepseek了,
测试对话
使用命令来一步步部署deepseek
ollama采用docker进行部署,首先拉取ollama docker镜像
docker pull ollama/ollama
创建容器
docker run -d --name ollama -v /home/LLM/ollama/models:/usr/share/ollama/.ollama/models -p 11434:11434 ollama/ollama:latest
- --name:容器名
- -v:硬盘挂载,
宿主机路径:容器内部路径
- -p:端口映射,
宿主机端口:容器内端口
根据容器ID来进入容器内部
docker exec -it 容器ID /bin/bash
模型可以在ollama官网查看
在容器内执行拉取模型
ollama pull deepseek-r1:7b
拉取完模型可以通过命令查看,列出所有模型
ollama list
运行模型
ollama run deepseek-r1:7b
停止模型
ollama stop deepseek-r1:7b
查看正在运行的模型
ollama ps
可以与模型对话
或者通过Python脚本调用API
import requests
response = requests.post(
"http://localhost:11434/api/generate",
json={
"model": "deepseek-r1:7b",
"prompt": "用JavaScript实现斐波那契数列",
"stream": False
}
)print(response.json()["response"])
更多推荐
所有评论(0)