基于ch_ppocr_server_v2.0_rec_train直接转infer模型,再转onnx模型,在CPU上tps达到30,但是只要ch_ppocr_server_v2.0_rec_train经过一个step的训练之后,有了反向传播,在转infer模型,再转onnx之后的性能在CPU上只有5tps了,想问下官方这是什么原因。paddle版本2.0.0
0g0grzrc1#
使用 ch_ppocr_server_v2.0_rec_train 模型作为预训练的时候有修改模型配置文件吗,
理论上如果网络结构没有变化,速度不会差异太大;
建议用paddle2.2.2版本
o7jaxewo2#
没有修改配置文件,一样的网络结构,我是直接load这个ch_ppocr_server_v2.0_rec_train模型,然后保存直接转onnx,和load进去训练了一个step之后再保存转onnx,这样会有很大的性能差异
eqoofvh93#
load这个ch_ppocr_server_v2.0_rec_train模型 用的哪个配置文件啊
crcmnpdw4#
rec_chinese_common_train_v2.0.yml
rec_chinese_common_train_v2.0.yml这个配置文件,想知道ch_ppocr_server_v2.0_rec_train这个模型官方是哪个版本的paddle训练出来的,基于这个模型直接转inference模型,再转onnx,性能很高,基于这个模型的rec_chinese_common_train_v2.0.yml配置文件finetune或者不finetune,再转onnx,性能低了6倍,我用的是paddle2.0.0版,换成paddle2.2.2版也是一样
4条答案
按热度按时间0g0grzrc1#
使用 ch_ppocr_server_v2.0_rec_train 模型作为预训练的时候有修改模型配置文件吗,
理论上如果网络结构没有变化,速度不会差异太大;
建议用paddle2.2.2版本
o7jaxewo2#
使用 ch_ppocr_server_v2.0_rec_train 模型作为预训练的时候有修改模型配置文件吗,
理论上如果网络结构没有变化,速度不会差异太大;
建议用paddle2.2.2版本
没有修改配置文件,一样的网络结构,我是直接load这个ch_ppocr_server_v2.0_rec_train模型,然后保存直接转onnx,和load进去训练了一个step之后再保存转onnx,这样会有很大的性能差异
eqoofvh93#
load这个ch_ppocr_server_v2.0_rec_train模型 用的哪个配置文件啊
crcmnpdw4#
rec_chinese_common_train_v2.0.yml
rec_chinese_common_train_v2.0.yml这个配置文件,想知道ch_ppocr_server_v2.0_rec_train这个模型官方是哪个版本的paddle训练出来的,基于这个模型直接转inference模型,再转onnx,性能很高,基于这个模型的rec_chinese_common_train_v2.0.yml配置文件finetune或者不finetune,再转onnx,性能低了6倍,我用的是paddle2.0.0版,换成paddle2.2.2版也是一样