首先创建ollama文件夹,用于存放下载的压缩包

 mkdir ollama

下载ollama

注意:如果服务器无法联网、无法访问github,直接使用方式三!!!!

方式一:官网下载地址

curl -fsSL https://ollama.com/install.sh | sh

 方式二:

下载安装包:

wget -O ollama-linux-amd64.tgz https://ollama.com/download/ollama-linux-amd64.tgz

解压缩 

tar -xvzf ollama-linux-amd64.tgz

方式三:

  • 检查服务器CPU型号
lscpu

        # x86_64 CPU选择下载ollama-linux-amd64
        # aarch64|arm64 CPU选择下载ollama-linux-arm64

  • 将文件传入服务器中创建的ollama文件夹中
  • 解压缩
    tar -xvzf ollama-linux-amd64.tgz

 配置环境

编辑环境变量

#编辑环境变量
nano ~/.bashrc

添加环境变量

export OLLAMA_HOME=/ollama/bin(放自己的地址)
export PATH=$PATH:$OLLAMA_HOME

保存后重启生效

source ~/.bashrc

启动ollama

ollama serve

如果还是无法启动,说明环境没有配好。可以进入/ollama/bin目录下,使用./ollama serve进行启动

 加载模型

直接去官网找run语句就行。示例:

ollama run qwen2.5:3b

编辑python代码运行

import ollama
if __name__ == "__main__":
    response = ollama.chat(model='qwen2.5:3b',
                           stream=False,  # 这里设定成True也难以实现流式输出
                           messages=[{'role': 'user',
                                      'content': '用一句话简要的介绍一下自己'}]
                           )
    # 只输出回答的内容
    print(response['message']['content'])

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐