1. Environment="OLLAMA_HOST=0.0.0.0:11434" 
    解释:
    监听地址和端口   0.0.0.0是对IP没有限制
  2. Environment="PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games"
    解释:
    定义可执行文件的搜索路径
  3. Environment="OLLAMA_SCHED_SPREAD=true"
    解释:
    调用分散模式 多显卡的情况  处理多并发的情况下 可以减少时间
  4. Environment="OLLAMA_NUM_PARALLEL=15"
    解释:
    最大线程数,同时允许的最大处理并非数
  5. Environment="OLLAMA_MAX_LOADED_MODELS=1"
    解释:
    最大模型数,同时可以加载最多几个模型(我三张显卡的情况 llama3 70B,和一个27B并行  建议1-2)
  6. Environment="OLLAMA_MODELS=/mnt/rayse/files/ollama/models"
    解释:
    模型存储路径
  7. Environment="OLLAMA_KEEP_ALIVE=1h"
    解释:
    模型加载后保留的时间,超过1小时,就卸载了,就要从新加载模型。
  8. ExecStart=/usr/bin/ollama serve
    解释:
    启动服务的指令
  9. User=ollama
    解释:
    指定运行服务的用户,服务将以 ollama 用户的身份运行
  10. Group=ollama
    解释:
    指定运行服务的用户组,服务将属于 ollama 用户组。
  11. Restart=always
    解释:
    配置服务异常停止后的自动重启
  12. RestartSec=3
    解释:
    设置服务停止后重新启动的时间间隔
  13. Environment="CUDA_VISIBLE_DEVICES=0,1
    解释:
    在多张显卡的情况下只用显卡0和显卡1进行运行服务。
Logo

技术共进,成长同行——讯飞AI开发者社区

更多推荐