OLLAMA_MAX_VRAM被忽略

tzdcorbm  于 2个月前  发布在  其他
关注(0)|答案(1)|浏览(35)

问题是什么?

我试图限制GPU内存使用,所以我设置了 OLLAMA_MAX_VRAM 环境变量。
我在日志中看到它被正确解析,但限制本身被忽略了。
当我将限制设置为 5000000000 (5GB)时,根据 nvidia-smi ,llama3:8b 模型将使用 6172MiB
即使我将其设置为一个极低的值,如 5 ,它仍然使用超过6GB的内存。

操作系统

Linux,Docker

GPU

Nvidia

CPU

AMD

Ollama版本

0.2.5

vs3odd8k

vs3odd8k1#

我也遇到了这个问题。据我所知,配置选项目前在代码库中实际上没有被使用?

相关问题