1.先看自己服务器cpu是什么版本

lscpu

如果是x86那就是amd版本,否则就是arm版本
在这里插入图片描述

2.找到相应的ollama压缩包

https://github.com/ollama/ollama/releases

在这里插入图片描述
3.在服务器中解压
3.1 找到空间大的地方,建立一个ollama文件夹,把压缩包上传上去,再解压

tar -xzf ollama-linux-amd64.tgz

在这里插入图片描述
3.2 解压得到两个文件夹,进入到bin文件夹下,得到ollama本体
在这里插入图片描述
3.3 这个时候输入ollama,会提示没有该命令,因为没有设置全局可用
3.3.1 设置软连接

sudo ln -s /root/ollama/bin/ollama /usr/local/bin/ollama

3.3.2看一下生没生效

ls -l /usr/local/bin/ollama

这样说吗可以了
在这里插入图片描述
3.3.3 再设置全局可用

vim ~/.bashrc

将这段命令输入进去,放到最后

export PATH=$PATH:/usr/local/bin

再刷新缓存

 source ~/.bashrc

3.4 随便找个地方,输入ollama,发现可用即可
在这里插入图片描述
3.5 配置ollama的配置文件
在目录/etc/systemd/system下创建文件ollama.service
要对这个文件进行权限控制

chmod +x ollama.service

输入文件中这些命令

[Unit]
Description=Ollama Service
After=network-online.target
 
[Service]
ExecStart=/root/ollama/bin/ollama serve
User=root
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0:11434"
​
[Install]
WantedBy=default.target

3.6 输入以下命令启动ollama

 sudo systemctl daemon-reload

sudo systemctl restart ollama.service

观察是否生效

 sudo systemctl status ollama.service

在这里插入图片描述
3.7 最后查看端口11434是不是都可被监听,只要不是localhost11434或者127.0.0.1就行,如下即可。

 sudo netstat -tul

在这里插入图片描述
4 ollama 下载deepseek-r1:1.5b
我是为了节约流量,直接运行的,同样道理,把文件拷贝到下方的目录下即可
补充:(从能连网的服务器上下载deepseek,拿到这两个文件,再拷贝的下方目录)

ollama run deepseek-r1:1.5b

文件下载到了/root/.ollama/models下
在这里插入图片描述

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐