在服务器上安装ollama并使用本地python代码调用大模型
在实验室服务器上安装ollama。并在本地python程序中连接服务器以实现调用大模型
·
首先创建ollama文件夹,用于存放下载的压缩包
mkdir ollama
下载ollama
注意:如果服务器无法联网、无法访问github,直接使用方式三!!!!
方式一:官网下载地址
curl -fsSL https://ollama.com/install.sh | sh
方式二:
下载安装包:
wget -O ollama-linux-amd64.tgz https://ollama.com/download/ollama-linux-amd64.tgz
解压缩
tar -xvzf ollama-linux-amd64.tgz
方式三:
- 检查服务器CPU型号
lscpu
- 访问Releases · ollama/ollama · GitHub ,下载压缩包。
# x86_64 CPU选择下载ollama-linux-amd64
# aarch64|arm64 CPU选择下载ollama-linux-arm64
- 将文件传入服务器中创建的ollama文件夹中
- 解压缩
tar -xvzf ollama-linux-amd64.tgz
配置环境
编辑环境变量
#编辑环境变量
nano ~/.bashrc
添加环境变量
export OLLAMA_HOME=/ollama/bin(放自己的地址)
export PATH=$PATH:$OLLAMA_HOME
保存后重启生效
source ~/.bashrc
启动ollama
ollama serve
如果还是无法启动,说明环境没有配好。可以进入/ollama/bin目录下,使用./ollama serve进行启动
加载模型
直接去官网找run语句就行。示例:
ollama run qwen2.5:3b
编辑python代码运行
import ollama
if __name__ == "__main__":
response = ollama.chat(model='qwen2.5:3b',
stream=False, # 这里设定成True也难以实现流式输出
messages=[{'role': 'user',
'content': '用一句话简要的介绍一下自己'}]
)
# 只输出回答的内容
print(response['message']['content'])
更多推荐
所有评论(0)