本地大模型--ollama的使用
本地大模型--ollama的使用(大模型安装及使用),询问等。
·
1、之前有一篇文章说如何安装ollama+anythingLLM的,当然这里面也讲到了deepseek大模型。
Ollama + AnythingLLM + Deepseek r1 实现本地知识库_ollama、deepseek r1、nomic-embed-text和anythingllm配置本-CSDN博客
2、anythingLLM有时候反应比较慢,不如ollama,当然这个是我机上的效果,也许在别人的机器上是快的,这个不管,所以我们一般会直接使用ollama来问一下。
3、查看可以使用的大模型,也就是安装过的,因为大模型的名字老会忘记。
ollama list
4、ollama的使用:
ollama run + 大模型的名字
5、查看可以安装的模型:
6、使用完了,我们就退出就行。
/bye
7、小伙伴们可以自己去尝试下。
更多推荐
所有评论(0)