ollama 请为 Camel 3.1 405B提供Q_2,

hgtggwj0  于 2个月前  发布在  其他
关注(0)|答案(7)|浏览(18)

这个量化是缺失的。

au9on6nz

au9on6nz1#

我认为你可以使用ollama命令根据你的规格生成模型的量化版本。查看帮助,它看起来像这样:
❯ ollama create -h
从Modelfile创建一个模型
用法:
ollama create MODEL [flags]
标志:
-f, --file string Modelfile的名称(默认为"Modelfile")
-h, --help 帮助create
-q, --quantize string 将模型量化到这个级别(例如q4_0)

5lwkijsr

5lwkijsr2#

对于小型模型来说,这不是什么大问题,但对于像405b这样的大型模型,下载完整的fp16并进行量化需要很长时间。如果Ollama库为llama 3.1 405b提供其他量化方法,那将是非常棒的。

4dc9hkyq

4dc9hkyq3#

我们目前无法在 Ollama 上访问完整的 fp16 版本;405B 模型的默认配置是 Q_4。也许可以将其 "下量化" 为 Q_2,或者从另一个来源获取完整的 fp16 版本。这两个选项都涉及相当大的努力,我需要确定 Q_2 中的 405B 是否比 FP16 中的 70B 具有显著优势。 😅

vwhgwdsa

vwhgwdsa4#

我们目前无法在Ollama上访问完整的fp16版本。
我认为Meta提供了llama3.1-405b的fp16版本吗?难道Ollama团队不能将其转换为gguf并基于该进行量化吗?

vvppvyoh

vvppvyoh5#

我的意思是,我们这些用户,我会把我的一些帖子发给GPT进行语法修正,但有时候它会弄乱。

fcwjkofz

fcwjkofz6#

解:根据题意,得$(x+y)^{2}-4xy=(x-y)^{2}$。

rnmwe5a2

rnmwe5a27#

我尝试从这个确切的来源进行操作,并将其导入到ollama中,但未能正确运行导入的模型。我还没有添加外部模型的经验。我会等待几天,直到有人解决如何做到这一点:)

相关问题