1、之前有一篇文章说如何安装ollama+anythingLLM的,当然这里面也讲到了deepseek大模型。

Ollama + AnythingLLM + Deepseek r1 实现本地知识库_ollama、deepseek r1、nomic-embed-text和anythingllm配置本-CSDN博客

2、anythingLLM有时候反应比较慢,不如ollama,当然这个是我机上的效果,也许在别人的机器上是快的,这个不管,所以我们一般会直接使用ollama来问一下。

3、查看可以使用的大模型,也就是安装过的,因为大模型的名字老会忘记。

ollama list

4、ollama的使用:

ollama run + 大模型的名字

5、查看可以安装的模型:

6、使用完了,我们就退出就行。

/bye

7、小伙伴们可以自己去尝试下。

Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐