使用Docker在本地快速启动一个DeepSeek-R1模型
使用 ollama 启动模型;使用 open-webui 作为UI界面。
1. 启动
使用 docker compose,创建文件 compose.yml
:
name: llm
services:
ollama:
container_name: ollama
image: ollama/ollama:latest
ports:
- "11434:11434"
volumes:
- ollama:/root/.ollama
gpus:
- driver: nvidia
count: "all"
capabilities: [gpu]
open-webui:
container_name: open-webui
image: ghcr.io/open-webui/open-webui:main
depends_on:
- ollama
ports:
- "31000:8080"
extra_hosts:
- host.docker.internal:host-gateway
volumes:
- open-webui:/app/backend/data
volumes:
ollama:
open-webui:
启动服务:
docker compose up -d
停止服务:
docker compose down
2. 使用
浏览器访问:localhost:31000
。
注册的第一个用户为管理员账户,登录后下载 deepseek-r1 模型,根据自己电脑的硬件配置选择合适的模型:deepseek-r1:1.5b
、deepseek-r1:7b
、deepseek-r1:8b
、deepseek-r1:14b
、deepseek-r1:32b
、deepseek-r1:70b
、deepseek-r1:671b
。

等待下载完成,然后就可以选择已经下载的模型进行对话:
