ollama 我怀念将GPU层数作为模型参数指定的选项,

a2mppw5e  于 2个月前  发布在  其他
关注(0)|答案(4)|浏览(60)

gguf模型中使用频率最高的两个参数是:IMO:temp(温度)和mode要使用的gpu层数。但是gpu层数已经“嵌入”到ollama模型模板文件中。这意味着我们必须创建一个新的模型,并使用新的gpu层数-仅仅为了改变它。
是的,我明白在模型加载后无法更改gpu层数。但即使如此,为了更改gpu层卸载参数而创建新的模型文件仍然是过度的。

rekjcdws

rekjcdws1#

感谢您的反馈@JoseConseco,在Ollama的最后几个版本中,您实际上可以在交互模式下指定此内容。

ollama run llama2
>>> /set parameter num_gpu 12
Set parameter 'num_gpu' to '12'

>>>

这是否有助于您的用例?

vshtjzan

vshtjzan2#

很棒。这是关于ollama(需要创建自定义模型,更改GPU层)最令人烦恼的事情之一。
/set parameter num_gpu 12起作用时——在设置GPU层后,模型会在下一个提示符后重新加载。
我得测试一下这是否有所帮助,如果模型太大而无法加载到显存中。我想在那种情况下,ollama会出错,我将无法使用/set parameter num_gpu 12,对吗?在这种情况下,用户将不得不创建新的模型文件......
是否有类似于从一开始就设置GPU层的选项——例如:
ollama run model.xyz -gpu-layer n?

lkaoscv7

lkaoscv73#

@JoseConseco 将它设置为一个标志目前不是一个选项,然而现在正在进行大量的工作,以便在运行模型时默认加载最佳数量的层。

hzbexzde

hzbexzde4#

我们可以通过以下参数设置num_gpu的值。但是我找不到如何获取当前值的方法?以及可以参考哪些指标来设置这个值?

相关问题