软件环境
- paddlepaddle:/
- paddlepaddle-gpu: 3.0.0b1
- paddlenlp: 2.6.1
重复问题
- 我已经在现有的问题中进行了搜索
错误描述
在paddlenlp/llm/ 执行python run_finetune.py ./config/qwen/lora_argument.json 时。脚本参数解析和配置json文件不一致。
稳定复现步骤 & 代码
编辑器环境
使用VSCode IDE的python debugger。
./config/qwen/lora_argument.json```配置如上图右侧所示。
### 具体问题代码行
运行run_finetune.py进入主函数main(),执行到如下图所示代码行时,调试面板显示train_args.do_eval = true。
![](//img.saoniuhuo.com/images/202408/51311723520279291.jpg)
这和我已经保存好的lora_argument.json参数设置不一致!(.json文件中do_eval=false)
这导致后面解析数据文件时,主函数进入错误的分支。
希望能够提供建议!
1条答案
按热度按时间svmlkihl1#
如果要保证do_eval为False,请设置evaluation_strategy:"no"