Ollama不使用所有GPU,

3mpgtkmj  于 2个月前  发布在  其他
关注(0)|答案(2)|浏览(65)

问题是什么?

我在一台拥有4x A100的服务器上运行了Ollama,但它只使用了其中的一个。是否需要更改某些设置?谢谢

操作系统

Linux

GPU

Nvidia

CPU

Intel

Ollama版本

0.2.1

j8ag8udp

j8ag8udp1#

我也遇到了类似的问题。设置num_gpu:2没有任何效果。
编辑:OLLAMA_NUM_PARALLEL=8 解决了这个问题。谢谢!

cbjzeqam

cbjzeqam2#

我将更新常见问题解答以使内容更清晰。简而言之,默认行为是在模型适合的情况下使用单个GPU,这通常会产生最佳性能。

相关问题