vllm [杂项]:奇数GPU利用率?

4ktjp1zp  于 2个月前  发布在  其他
关注(0)|答案(1)|浏览(60)

关于vllm的讨论

目前,TP(Tensor Processing)不支持奇数个GPU或不能被40整除的GPU数量(例如6个GPU)。然而,在某些情况下,不可避免地会出现这样的配置。
目前有哪些方法可以使剩下的GPU(s)不完全处于空闲状态?是否有解决或绕过这个问题的计划?

9rnv2umw

9rnv2umw1#

类似的问题在这里:#1399(据说已经修复,但可能只适用于偶数个GPU)

相关问题