问题类型:模型部署
问题描述
部署环境:Jetson nano,Jetpack 4.5 python3.6+nv_jetson-cuda10.2-cudnn8-trt7
安装官方提供的库 paddlepaddle_gpu-2.1.0-cp36-cp36m-linux_aarch64.whl
代码步骤如:https://paddleinference.paddlepaddle.org.cn/demo_tutorial/cuda_jetson_demo.html
config.EnableUseGpu(500, 0);
[使用GPU报错,停用GPU正常。报错代码如下图
25条答案
按热度按时间t40tm48m1#
您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看官网API文档、常见问题、历史Issue、AI社区来寻求解答。祝您生活愉快~
Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the API,FAQ,Github Issue and AI community to get the answer.Have a nice day!
ycl3bljg2#
关闭TensorRT 是否能正常预测,你的模型是哪个
1wnzp6jl3#
用的mobileNetV1 关闭TensorRT也一样
1qczuiv04#
我在Nano上测试了一下,可以运行GPU版本的预测
Nano 环境:
使用的模型是:
MobileNetV1_infer.tar.zip
执行预测的逻辑是:python3 infer.py --model_file ./MobileNetV1_infer/inference.pdmodel --params_file ./MobileNetV1_infer/inference.pdiparams
代码是:
mwg9r5ms5#
我手中版本是nano 2G版本,运行至这个地方一直没动静了
xpcnnkqh6#
mrzz3bfm7#
yptwkmov8#
你关闭TRT预测吧,把这一行屏蔽掉
deikduxw9#
还是一样没动静。。。
44u64gxh10#
关闭GPU就正常了
imzjd6km11#
xqkwcwgp12#
测试其他模型是否能GPU预测,如果也不行,那应该是环境问题,可以尝试
zfciruhq13#
cuda cudnn 都没问题
paddle发布了2.1.1在哪可下载适合的whl库文件?
jxct1oxe14#
下载链接:
预测库:
https://paddle-inference-lib.bj.bcebos.com/2.1.1-nv-jetson-jetpack4.4-nano/paddle_inference_install_dir.tgz
whl包
https://paddle-inference-lib.bj.bcebos.com/2.1.1-nv-jetson-jetpack4.4-nano/paddlepaddle_gpu-2.1.1-cp36-cp36m-linux_aarch64.whl
4uqofj5v15#
我看到桌面出现System throttled due to over-current,会不会是过流受限制了?