Linly 既然使用了LLAMA,为什么在多轮对话中不使用Alpaca?

3j86kqsm  于 9个月前  发布在  其他
关注(0)|答案(1)|浏览(301)

难得看到全参训练的LLaMA模型,既然全参训练了,按理扩充一下词表效果要比隔壁的民间羊驼好,但是由于聊天不是alpaca结构,开源生态很多项目就不太好用,加上腾讯那个训练库...他自己star那么少,所以基于它的东西star少也就能理解了,还有回答时候总是要重复问题.....
建议提供lora合并例子,脚本,lora可复现训练代码,llama.cpp手动转换脚本,毕竟不是每个人都有条件全参的...再加上LLaMA开源的协议问题...
加油!

zrfyljdw

zrfyljdw1#

感谢建议,我们会进行改进。

相关问题