你好,
使用alpaca lora(https://github.com/tloen/alpaca-lora)这样的适配器是否可以加载lora模型-peft模型?
那里有一个脚本,可以将peft权重添加到模型中,但它不能正常工作(https://github.com/tloen/alpaca-lora/blob/main/export_hf_checkpoint.py)。
你好,
使用alpaca lora(https://github.com/tloen/alpaca-lora)这样的适配器是否可以加载lora模型-peft模型?
那里有一个脚本,可以将peft权重添加到模型中,但它不能正常工作(https://github.com/tloen/alpaca-lora/blob/main/export_hf_checkpoint.py)。
4条答案
按热度按时间hwamh0ep1#
当然!我们将把这个功能作为v0.2.0版本的一部分添加进来。
vxqlmq5t2#
+1支持LoRa(理想情况下,请支持4位LoRa,如https://github.com/johnsmith0031/alpaca_lora_4bit的输出!)
puruo6ea3#
期待这个!
t98cgbkg4#
你好!这是支持加载LoRa适配器的dev分支,现在可以在支持的基模型上使用hf的
peft
了🥳