ollama 无法在M1 Max上运行自定义模型(在llama3上微调)

fxnxkyjh  于 4个月前  发布在  其他
关注(0)|答案(3)|浏览(159)

问题是什么?
❯ ollama运行InsuranceGPT "你最喜欢的调味品是什么?"
错误:llama runner进程不再运行:-1错误:检查Tensor维度:Tensor'blk.0.attn_k.weight'的形状不正确;期望的形状是4096, 4096,实际得到的形状是4096, 1024, 1, 1

操作系统

macOS

GPU

Apple

CPU

Apple

Ollama版本

  • 无响应*
ivqmmu1c

ivqmmu1c1#

❯ ollama create InsuranceGPT
正在传输模型数据
创建模型层
创建模板层
使用已创建的层,SHA256:9ff789dfa477f6c77a5e6a8e4be66df28d824c18cf84e24d1b14aac2d067e950
写入层,SHA256:26fc224b78fce98e2c791de92ec7687171a7b46236f34faa64227cf9c2cfa4ac
写入层,SHA256:8854ff53cb2acccb83c87e946efc533a82b038d6d243caddd7ed0ba2e766ef84
写入清单
成功
❯ ollama run InsuranceGPT "What is your favourite condiment?"
错误:llama运行器进程不再运行:-1错误:检查Tensor维度:Tensor'blk.0.attn_k.weight'的形状不正确;期望为4096, 4096,得到4096, 1024, 1, 1

0wi1tuuw

0wi1tuuw2#

Facing same issue for code-gemma-7B gguf model
Error: llama runner process no longer running: -1 error:check_tensor_dims: tensor 'blk.0.attn_q.weight' has wrong shape; expected 3072, 3072, got 3072, 4096, 1, 1

zlwx9yxi

zlwx9yxi3#

对不起,对于这个问题的响应速度较慢。你们中的任何一个人有展示问题的gguf文件/模型文件吗?我猜想这是一个与转换不正确的gguf文件有关的问题。

相关问题