我试图限制GPU内存使用,所以我设置了 OLLAMA_MAX_VRAM 环境变量。我在日志中看到它被正确解析,但限制本身被忽略了。当我将限制设置为 5000000000 (5GB)时,根据 nvidia-smi ,llama3:8b 模型将使用 6172MiB 。即使我将其设置为一个极低的值,如 5 ,它仍然使用超过6GB的内存。
OLLAMA_MAX_VRAM
5000000000
nvidia-smi
llama3:8b
6172MiB
5
Linux,Docker
Nvidia
AMD
0.2.5
vs3odd8k1#
我也遇到了这个问题。据我所知,配置选项目前在代码库中实际上没有被使用?
1条答案
按热度按时间vs3odd8k1#
我也遇到了这个问题。据我所知,配置选项目前在代码库中实际上没有被使用?