llama-cpp-python 推荐的玩法是自己编译,以下是关于cuda 支持编译的简单说明
参考构建命令
- 命令
可能的问题
- 比如cuda 编译的DCUDA_DOCKER_ARCH变量
核心就是配置
说明
以上核心是关于cuda 编译参数的配置,如果有其他问题,可以参考以下链接
参考资料
https://github.com/ggerganov/llama.cpp/blob/master/docs/build.md
https://llmops-handbook.distantmagic.com/deployments/llama.cpp/aws-ec2-cuda.html
https://github.com/jetsonhacks/buildLibrealsense2TX/issues/13
https://stackoverflow.com/questions/72278881/no-cmake-cuda-compiler-could-be-found-when-installing-pytorch
所有评论(0)