ollama Llama 3 70b 16位精度

x9ybnkn6  于 2个月前  发布在  其他
关注(0)|答案(2)|浏览(35)

根据Ollama文档,它支持Llama 3 70b 4位精度。我想知道是否以及如何使用16位或32位精度模型。

yzckvree

yzckvree1#

您可以在库中看到模型的所有支持变体,对于llama3: https://ollama.com/library/llama3:70b-instruct-fp16
在下拉菜单中选择模型并复制命令。在您的情况中: ollama run llama3:70b-instruct-fp16

e7arh2l6

e7arh2l62#

据我所知,这已经可以实现了,所以这份报告没有意义。

相关问题