难得看到全参训练的LLaMA模型,既然全参训练了,按理扩充一下词表效果要比隔壁的民间羊驼好,但是由于聊天不是alpaca结构,开源生态很多项目就不太好用,加上腾讯那个训练库...他自己star那么少,所以基于它的东西star少也就能理解了,还有回答时候总是要重复问题.....建议提供lora合并例子,脚本,lora可复现训练代码,llama.cpp手动转换脚本,毕竟不是每个人都有条件全参的...再加上LLaMA开源的协议问题...加油!
zrfyljdw1#
感谢建议,我们会进行改进。
1条答案
按热度按时间zrfyljdw1#
感谢建议,我们会进行改进。