llama.cpp Bug: -ngl 在服务器文档中缺失,用于图层卸载,

c2e8gylq  于 2个月前  发布在  其他
关注(0)|答案(3)|浏览(32)

发生了什么?
没有提到如何将层卸载到GPU上

名称和版本

文档

你在哪个操作系统上看到这个问题?

Linux

相关的日志输出

  • 无响应*
klr1opcd

klr1opcd2#

@RonanKMcGovern 我似乎已经解决了这个问题。你检查过你的llama.cpp是否支持CUDA编译了吗?

carvr3hs

carvr3hs3#

谢谢,顺便说一下,对我来说一切都运行得很好。我只是指出文档没有解释如何包含-ngl,祝你好运...

2024年7月22日星期一上午8:21
ReXommendation ***@***.***>写道: @RonanKMcGovern < https://github.com/RonanKMcGovern > 我似乎已经解决了这个问题。你检查过你的llama.cpp是否支持CUDA吗? — 直接回复此电子邮件,查看GitHub上的<#8605 (comment)>,或者取消订阅< https://github.com/notifications/unsubscribe-auth/ASVG6CQMYIRRJPIUUTV2PTDZNSXGJAVCNFSM6AAAAABLGG6CAWVHI2DSMVQWIX3LMV43OSLTON2WKQ3PNVWWK3TUHMZDENBSGI3DCOJZGI >。你收到这封邮件是因为有人提到了你。消息ID: ***@***.***>

相关问题