PaddleOCR 通过paddleLite创建解释器的问题

vhipe2zx  于 2022-10-27  发布在  其他
关注(0)|答案(2)|浏览(147)

各位大佬们好,有两个问题想请教:
1.使用config.set_model_from_file();传入模型路径,可以正常创建解释器。但是我如果把模型加密,再解密后使用config.set_model_from_buffer();则会在执行paddle::lite_api::CreatePaddlePredictor(config);时报错:

Paddle-Lite: [F 10/26 16:37:40. 52 .../model_parser/flatbuffers/program_desc.h:52 InitProgramDesc] Check failed: verifier.VerifyBufferpaddle::lite::fbs::proto::ProgramDesc(nullptr): Program verification failed.

请问是哪里出了问题呢?

2.基于ubuntu使用paddleLite,调用 config.set_model_from_file();paddle::lite_api::CreatePaddlePredictor(config); 时报错

The model format cannot be recognized. Please make sure you use the correct interface and model file

但是,该.nb模型我在android studio上可以正常使用
不知为何
请各位大佬棒棒忙,解答一下,十分感激

xjreopfe

xjreopfe1#

lite问题可以到PaddleLite的repo下面进行提问

相关问题