FinGPT 执行 `finetune.sh` 之后,效果不理想,

nszi6y05  于 10个月前  发布在  其他
关注(0)|答案(1)|浏览(253)

执行finetune.sh日志如下图:

  1. ![](//img.saoniuhuo.com/images/202407/75791722000724280.jpg)
  2. 执行脚本参数
  3. python -u finetune.py
  4. --dataset_path "/data/program/data/dataset6/jsonl/dataset_title_train_and_valid"
  5. --lora_rank 8
  6. --per_device_train_batch_size 16
  7. --per_device_eval_batch_size 16
  8. --gradient_accumulation_steps 1
  9. --num_train_epochs 1
  10. --save_steps 100
  11. --save_total_limit 5
  12. --learning_rate 1e-6
  13. --fp16
  14. --remove_unused_columns false
  15. --logging_steps 10
  16. --eval_steps 100
  17. --load_best_model_at_end true
  18. --evaluation_strategy "steps"
  19. --output_dir "/data/program/data/dataset6/model" > train.log 2>&1

然后运行infer 通过测试数据做了对比。

通过这些指标看效果不好,是参数样本数据少还是样本数据有问题?

uyto3xhc

uyto3xhc1#

楼主,我也遇到了这个问题,准确率也只有百分之30多。请问你是如何解决的呢?

相关问题