AutoGPTQ 量化LoRa羊驼(带有适配器的模型)

vshtjzan  于 5个月前  发布在  其他
关注(0)|答案(4)|浏览(59)

你好,
使用alpaca lora(https://github.com/tloen/alpaca-lora)这样的适配器是否可以加载lora模型-peft模型?
那里有一个脚本,可以将peft权重添加到模型中,但它不能正常工作(https://github.com/tloen/alpaca-lora/blob/main/export_hf_checkpoint.py)。

hwamh0ep

hwamh0ep1#

当然!我们将把这个功能作为v0.2.0版本的一部分添加进来。

vxqlmq5t

vxqlmq5t2#

+1支持LoRa(理想情况下,请支持4位LoRa,如https://github.com/johnsmith0031/alpaca_lora_4bit的输出!)

t98cgbkg

t98cgbkg4#

你好!这是支持加载LoRa适配器的dev分支,现在可以在支持的基模型上使用hf的peft了🥳

相关问题