PaddleOCR 基于ch_ppocr_server_v2.0_rec_train模型作为自己数据的预训练模型转onnx性能问题

w3nuxt5m  于 2022-10-21  发布在  其他
关注(0)|答案(4)|浏览(372)

基于ch_ppocr_server_v2.0_rec_train直接转infer模型,再转onnx模型,在CPU上tps达到30,但是只要ch_ppocr_server_v2.0_rec_train经过一个step的训练之后,有了反向传播,在转infer模型,再转onnx之后的性能在CPU上只有5tps了,想问下官方这是什么原因。paddle版本2.0.0

0g0grzrc

0g0grzrc1#

使用 ch_ppocr_server_v2.0_rec_train 模型作为预训练的时候有修改模型配置文件吗,

理论上如果网络结构没有变化,速度不会差异太大;

建议用paddle2.2.2版本

o7jaxewo

o7jaxewo2#

使用 ch_ppocr_server_v2.0_rec_train 模型作为预训练的时候有修改模型配置文件吗,

理论上如果网络结构没有变化,速度不会差异太大;

建议用paddle2.2.2版本

没有修改配置文件,一样的网络结构,我是直接load这个ch_ppocr_server_v2.0_rec_train模型,然后保存直接转onnx,和load进去训练了一个step之后再保存转onnx,这样会有很大的性能差异

eqoofvh9

eqoofvh93#

load这个ch_ppocr_server_v2.0_rec_train模型 用的哪个配置文件啊

crcmnpdw

crcmnpdw4#

rec_chinese_common_train_v2.0.yml

rec_chinese_common_train_v2.0.yml这个配置文件,想知道ch_ppocr_server_v2.0_rec_train这个模型官方是哪个版本的paddle训练出来的,基于这个模型直接转inference模型,再转onnx,性能很高,基于这个模型的rec_chinese_common_train_v2.0.yml配置文件finetune或者不finetune,再转onnx,性能低了6倍,我用的是paddle2.0.0版,换成paddle2.2.2版也是一样

相关问题