PaddleNLP [Bug]: run_finetune.py ./config/qwen/lora_argument.json 参数解析错误

rpppsulh  于 2个月前  发布在  其他
关注(0)|答案(1)|浏览(22)

软件环境

- paddlepaddle:/
- paddlepaddle-gpu: 3.0.0b1
- paddlenlp: 2.6.1

重复问题

  • 我已经在现有的问题中进行了搜索

错误描述

在paddlenlp/llm/ 执行python run_finetune.py ./config/qwen/lora_argument.json 时。脚本参数解析和配置json文件不一致。

稳定复现步骤 & 代码

编辑器环境

使用VSCode IDE的python debugger。

./config/qwen/lora_argument.json```配置如上图右侧所示。

### 具体问题代码行

运行run_finetune.py进入主函数main(),执行到如下图所示代码行时,调试面板显示train_args.do_eval = true。

![](//img.saoniuhuo.com/images/202408/51311723520279291.jpg)

这和我已经保存好的lora_argument.json参数设置不一致!(.json文件中do_eval=false)
这导致后面解析数据文件时,主函数进入错误的分支。
希望能够提供建议!
svmlkihl

svmlkihl1#

如果要保证do_eval为False,请设置evaluation_strategy:"no"

相关问题