系统:Deepin V23
1.Ollama简单介绍
        Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。
        Ollama仓库地址:https://github.com/ollama/ollama
        Ollama官方下载地址:https://ollama.com/download
在这里插入图片描述
2.安装Ollama
        在Deepin V23中打开一个终端,切换至root用户.执行如下命令.
#cd /usr/local (将ollama安装在/usr/local中)
#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)
在这里插入图片描述
在这里插入图片描述
查看ollama运行情况
在这里插入图片描述

3.安装(运行)模型
        安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
4.与Qiwen2:7b对话
(1)在终端中对话
打开终端,普通用户即可
执行命令:$ollama run qwen2:7b
在这里插入图片描述
若要退出,输入 /bye
(2)UOS AI中(接入本地模型)对话

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
如:在这里插入图片描述

在这里插入图片描述

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐