Ollama Windows 命令行完整指南

🚀 基础命令

1. 服务管理

ollama serve                    # 启动 Ollama 服务
ollama --version               # 查看版本信息
ollama --help                 # 查看帮助信息

2. 模型运行

ollama run llama3.2           # 运行模型并进入聊天
ollama run llama3.2:8b        # 运行指定大小的模型
ollama run qwen2.5:7b         # 运行其他模型

# 运行时传递参数
ollama run llama3.2 "你好,介绍一下自己"

📦 模型管理命令

3. 模型下载

ollama pull llama3.2          # 下载最新版本
ollama pull llama3.2:8b       # 下载指定版本
ollama pull qwen2.5:7b        # 下载千问模型
ollama pull codellama:13b     # 下载代码模型
ollama pull llava:7b          # 下载多模态模型

4. 模型查看

ollama list                   # 列出所有已下载的模型
ollama ls                     # 同上,简写形式

5. 模型删除

ollama rm llama3.2           # 删除指定模型
ollama remove qwen2.5:7b     # 删除指定版本

6. 模型信息

ollama show llama3.2         # 显示模型详细信息
ollama show llama3.2:8b      # 显示特定版本信息

🔧 高级命令

7. 模型创建和自定义

ollama create mymodel -f Modelfile    # 从 Modelfile 创建自定义模型
ollama cp llama3.2 my-llama3.2       # 复制模型

8. 模型推送(需要 Ollama Hub 账号)

ollama push mymodel                   # 推送模型到 Ollama Hub

9. API 相关

# 通过 curl 调用 API
curl http://localhost:11434/api/generate -d "{\"model\":\"llama3.2\",\"prompt\":\"Hello\"}"

# 检查服务状态
curl http://localhost:11434/api/tags

📋 常用参数选项

10. 运行时参数

# 设置温度参数(创造性)
ollama run llama3.2 --temperature 0.8

# 设置上下文窗口大小
ollama run llama3.2 --ctx-size 4096

# 设置种子(确保可重复性)
ollama run llama3.2 --seed 42

# 详细输出
ollama run llama3.2 --verbose

11. 服务参数

# 指定端口启动服务
ollama serve --port 11435

# 指定主机地址
ollama serve --host 0.0.0.0

🎯 实用示例

12. 日常使用场景

# 快速问答
ollama run llama3.2 "2+2等于多少?"

# 代码生成
ollama run codellama:13b "用Python写一个冒泡排序"

# 文本翻译
ollama run qwen2.5:7b "翻译这句话:Hello, how are you?"

# 创意写作
ollama run llama3.2 "写一个关于AI的短故事"

13. 批量操作

# 查看所有模型大小
for /f "tokens=1" %i in ('ollama list') do ollama show %i

# 下载多个常用模型
ollama pull llama3.2 && ollama pull qwen2.5:7b && ollama pull codellama:13b

🔍 系统信息命令

14. 环境检查

# 检查 GPU 支持
ollama run llama3.2 --gpu

# 查看系统信息
systeminfo | findstr "Processor"

# 检查环境变量
echo %OLLAMA_MODELS%
echo %OLLAMA_HOST%

📊 热门模型推荐

15. 常用模型下载

# 通用对话模型
ollama pull llama3.2:8b          # Meta 最新模型
ollama pull qwen2.5:7b           # 阿里千问,中文友好
ollama pull mistral:7b           # Mistral AI 模型

# 代码专用模型
ollama pull codellama:13b        # Meta 代码模型
ollama pull codeqwen:7b          # 千问代码模型

# 多模态模型(支持图像)
ollama pull llava:7b             # 图像理解模型
ollama pull llava:13b            # 更大的图像模型

# 小型快速模型
ollama pull tinyllama:1b         # 最小模型,适合测试
ollama pull phi3:3.8b            # 微软小模型

💡 使用技巧

16. 命令技巧

# 后台运行聊天
start ollama run llama3.2

# 保存对话到文件
ollama run llama3.2 "总结今天的新闻" > output.txt

# 管道使用
echo "翻译:Hello World" | ollama run qwen2.5:7b

# 检查模型是否存在
ollama list | findstr llama3.2

17. 故障排除

# 重启服务
taskkill /f /im ollama.exe
ollama serve

# 清理缓存(谨慎使用)
rmdir /s %OLLAMA_MODELS%

# 检查端口占用
netstat -an | findstr :11434

🎉 快速上手流程

# 1. 检查安装
ollama --version

# 2. 启动服务(通常自动启动)
ollama serve

# 3. 下载一个模型
ollama pull llama3.2:8b

# 4. 开始聊天
ollama run llama3.2

# 5. 查看所有模型
ollama list

这些就是 Ollama 在 Windows 命令行中的主要命令!建议先从基础命令开始熟悉。 🚀

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐