Ollama Windows 命令行完整指南
Ollama Windows 命令行使用指南提供了完整的本地AI模型管理方案。主要包含:1) 服务管理基础命令(serve/version/help);2) 模型操作(pull/run/list/rm);3) 高级功能(模型创建/API调用);4) 实用参数(temperature/ctx-size)。推荐从llama3.2、qwen2.5等热门模型入手,支持对话、代码生成、翻译等场景。文档还包含
·
Ollama Windows 命令行完整指南
🚀 基础命令
1. 服务管理
ollama serve # 启动 Ollama 服务
ollama --version # 查看版本信息
ollama --help # 查看帮助信息
2. 模型运行
ollama run llama3.2 # 运行模型并进入聊天
ollama run llama3.2:8b # 运行指定大小的模型
ollama run qwen2.5:7b # 运行其他模型
# 运行时传递参数
ollama run llama3.2 "你好,介绍一下自己"
📦 模型管理命令
3. 模型下载
ollama pull llama3.2 # 下载最新版本
ollama pull llama3.2:8b # 下载指定版本
ollama pull qwen2.5:7b # 下载千问模型
ollama pull codellama:13b # 下载代码模型
ollama pull llava:7b # 下载多模态模型
4. 模型查看
ollama list # 列出所有已下载的模型
ollama ls # 同上,简写形式
5. 模型删除
ollama rm llama3.2 # 删除指定模型
ollama remove qwen2.5:7b # 删除指定版本
6. 模型信息
ollama show llama3.2 # 显示模型详细信息
ollama show llama3.2:8b # 显示特定版本信息
🔧 高级命令
7. 模型创建和自定义
ollama create mymodel -f Modelfile # 从 Modelfile 创建自定义模型
ollama cp llama3.2 my-llama3.2 # 复制模型
8. 模型推送(需要 Ollama Hub 账号)
ollama push mymodel # 推送模型到 Ollama Hub
9. API 相关
# 通过 curl 调用 API
curl http://localhost:11434/api/generate -d "{\"model\":\"llama3.2\",\"prompt\":\"Hello\"}"
# 检查服务状态
curl http://localhost:11434/api/tags
📋 常用参数选项
10. 运行时参数
# 设置温度参数(创造性)
ollama run llama3.2 --temperature 0.8
# 设置上下文窗口大小
ollama run llama3.2 --ctx-size 4096
# 设置种子(确保可重复性)
ollama run llama3.2 --seed 42
# 详细输出
ollama run llama3.2 --verbose
11. 服务参数
# 指定端口启动服务
ollama serve --port 11435
# 指定主机地址
ollama serve --host 0.0.0.0
🎯 实用示例
12. 日常使用场景
# 快速问答
ollama run llama3.2 "2+2等于多少?"
# 代码生成
ollama run codellama:13b "用Python写一个冒泡排序"
# 文本翻译
ollama run qwen2.5:7b "翻译这句话:Hello, how are you?"
# 创意写作
ollama run llama3.2 "写一个关于AI的短故事"
13. 批量操作
# 查看所有模型大小
for /f "tokens=1" %i in ('ollama list') do ollama show %i
# 下载多个常用模型
ollama pull llama3.2 && ollama pull qwen2.5:7b && ollama pull codellama:13b
🔍 系统信息命令
14. 环境检查
# 检查 GPU 支持
ollama run llama3.2 --gpu
# 查看系统信息
systeminfo | findstr "Processor"
# 检查环境变量
echo %OLLAMA_MODELS%
echo %OLLAMA_HOST%
📊 热门模型推荐
15. 常用模型下载
# 通用对话模型
ollama pull llama3.2:8b # Meta 最新模型
ollama pull qwen2.5:7b # 阿里千问,中文友好
ollama pull mistral:7b # Mistral AI 模型
# 代码专用模型
ollama pull codellama:13b # Meta 代码模型
ollama pull codeqwen:7b # 千问代码模型
# 多模态模型(支持图像)
ollama pull llava:7b # 图像理解模型
ollama pull llava:13b # 更大的图像模型
# 小型快速模型
ollama pull tinyllama:1b # 最小模型,适合测试
ollama pull phi3:3.8b # 微软小模型
💡 使用技巧
16. 命令技巧
# 后台运行聊天
start ollama run llama3.2
# 保存对话到文件
ollama run llama3.2 "总结今天的新闻" > output.txt
# 管道使用
echo "翻译:Hello World" | ollama run qwen2.5:7b
# 检查模型是否存在
ollama list | findstr llama3.2
17. 故障排除
# 重启服务
taskkill /f /im ollama.exe
ollama serve
# 清理缓存(谨慎使用)
rmdir /s %OLLAMA_MODELS%
# 检查端口占用
netstat -an | findstr :11434
🎉 快速上手流程
# 1. 检查安装
ollama --version
# 2. 启动服务(通常自动启动)
ollama serve
# 3. 下载一个模型
ollama pull llama3.2:8b
# 4. 开始聊天
ollama run llama3.2
# 5. 查看所有模型
ollama list
这些就是 Ollama 在 Windows 命令行中的主要命令!建议先从基础命令开始熟悉。 🚀
更多推荐
所有评论(0)