ollama 我无法运行llama3.1,

bgibtngc  于 2个月前  发布在  其他
关注(0)|答案(5)|浏览(96)

问题是什么?
我从llama版本3.1 8b训练了自己的模型,并成功创建了modelfile,但是当我开始运行它时,它不起作用,我得到了这个错误:
ollama run mymodle:latest Error: llama runner process has terminated: error loading model: done_getting_tensors: wrong number of tensors; expected 292, got 291
我知道llama 3 8b模型是有效的,并且仍然运行良好。

操作系统

Linux

GPU

Nvidia

CPU

其他

Ollama版本

0.3.0

rur96b6h

rur96b6h1#

Git遇到了相同的问题:(
Error: llama runner process has terminated: error loading model: done_getting_tensors: wrong number of tensors; expected 292, got 291

l7mqbcuq

l7mqbcuq2#

在尝试运行刚刚转换的hf到gguf模型(https://huggingface.co/Undi95/Meta-Llama-3.1-8B-Claude)后,出现了相同的错误。似乎与ggerganov/llama.cpp#8650有关。

eanckbw9

eanckbw93#

ollama lags the leading edge of llama.cpp,并且它看起来像最近版本的llama.cpp创建了旧版本无法处理的GGUF文件。如果你使用旧版本的llama.cpp将hf转换为GGUF,可能会起作用。

zlwx9yxi

zlwx9yxi4#

ollama lags the leading edge of llama.cpp,它看起来像最近的版本的llama.cpp创建了GGUF文件,而旧版本无法处理。如果你使用旧版本的llama.cpp将hf转换为GGUF,可能会起作用。
这是否意味着主要问题来自llamacpp?的确,我尝试了一个很久以前训练过的模型,它确实有效。目前,我正在尝试操作的模型是我用unsloth使用的,并使用unsloth将其转换为gguf。unsloth下载了llamacpp的最新版本。

z9zf31ra

z9zf31ra5#

这是否意味着主要问题来自llamacpp?
这是我的理解。显然,已经进行了一次不向前兼容和向后兼容的更改。这种破坏性的更改并不理想,如果它仍然存在,那么当ollama同步超过llama.cpp树中的该点时,所有基于llama3的模型都将停止工作。我无法想象这是任何人都可以接受的,所以我预计会有修复。在此之前,如果您想使用基于llama3的模型与ollama <= 0.3.0一起使用,则需要使用旧版本的llama.cpp进行模型转换。

相关问题