ollama在mac系统上的安装
最近我在学习大模型相关的知识,因此想通过本地运行一些离线大模型来观察效果。经过了解,我发现Ollama可以运行离线模型,于是决定记录一下Ollama的安装过程。
·
1、背景
最近我在学习大模型相关的知识,因此想通过本地运行一些离线大模型来观察效果。经过了解,我发现Ollama
可以运行离线模型
,于是决定记录一下Ollama
的安装
过程。
2、Ollama是什么
Ollama 是一个开源工具,旨在帮助用户轻松地在本地运行和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够下载、部署和运行各种开源的大模型(如 LLaMA、GPT-J 等),而无需依赖云服务或互联网连接。
2.1 Ollama 的核心功能:
本地运行
:Ollama 允许用户在本地计算机上运行大模型,适合对数据隐私或网络环境有要求的场景。模型管理
:通过 Ollama,用户可以轻松下载、更新和管理不同的模型。简单易用
:Ollama 提供了直观的命令行工具,用户只需几条命令即可启动和运行模型。跨平台支持
:Ollama 支持 macOS、Linux 和 Windows 等主流操作系统。多种模型支持
:Ollama 支持多种开源大模型,用户可以根据需求选择合适的模型。
2.2 典型使用场景:
离线推理
:在没有互联网连接的环境中运行大模型。隐私保护
:在本地处理敏感数据,避免将数据上传到云端。开发与测试
:开发者可以在本地测试和调试大模型,而无需依赖外部服务。
3、安装步骤
这里以Mac下载安装为例
3.1 进入Ollama的下载界面
3.2 安装
将下载下来的 zip
包进行解压,然后放入到应用程序
中。
3.3 Ollama默认模型目录
在mac
系统中,模型的默认目录为~/.ollama/models
,日志目录为~/.ollama/logs
。
修改模型的默认目录
,通过设置环境变量OLLAMA_MODELS=具体的路径
来进行修改。
4、运行一个本地模型
4.1 选择一个模型
在Ollama的模型页面进行搜索并选择一个合适的模型。
4.2 安装模型
此处以安装deepseek-r1-14b
模型为例。 b
表示10亿模型参数,b
的值越小,需要的资源越小。
➜ ~ ollama pull deepseek-r1:14b
pulling manifest
pulling 6e9f90f02bb3... 100% ▕████████████████▏ 9.0 GB
pulling 369ca498f347... 100% ▕████████████████▏ 387 B
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B
pulling 3c24b0c80794... 100% ▕████████████████▏ 488 B
verifying sha256 digest
writing manifest
success
➜ ~ ollama run deepseek-r1:14b
>>> Send a message (/? for help)
ollama run
如果这个模型在本地不存在的话,会先拉取模型,然后在运行模型。
4.3 启动Ollama服务
在电脑中找到Ollama图标或在命令行中执行ollama server
命令进行启动ollama服务。修改ollama的运行端口:
OLLAMA_HOST=0.0.0.0:11434
.
通过设置环境变量来解决。
更多推荐
所有评论(0)