PaddleOCR 基于PaddleServing 的 PPOCR 服务化部署,使用 pipeline部署方式宿主机访问不了推理服务

zf2sa74q  于 2022-10-27  发布在  其他
关注(0)|答案(6)|浏览(292)

请提供下述完整信息以便快速定位问题/Please provide the following information to quickly locate the problem

  • 系统环境/System Environment:win10,docker desktop v20.10.16
  • 版本号/Version:Paddle:2.3.0 PaddleOCR:2.5

按照以下文档进行部署测试: PPOCR 服务化部署

使用 pipeline 方式运行服务端,如下所示,可以正常运行服务,其中 config.yml 使用默认内容未修改

python3 web_service.py --config=config.yml

在容器内调用测试,也可以进行正常推理

python3 pipeline_http_client.py

问题

宿主机无法访问上述部署的推理服务,命令行查看配置文件中的端口占用但并没有任何数据返回

cx6n0qe3

cx6n0qe31#

你好,建议再检查下端口是否被占用或者指定正确

aor9mmx1

aor9mmx12#

你好,建议再检查下端口是否被占用或者指定正确

好的,我试一下从Linux系统装吧

wa7juj8i

wa7juj8i3#

你好,建议再检查下端口是否被占用或者指定正确

我使用Linux系统被重新部署后是可以看到端口占用的

对于后续使用还有几个问题希望可以解答一下

  1. 如何使用 HTTP 请求访问部署的 Pipeline 服务
    通过查询 Python Pipeline 框架设计 文档 Pipeline 方式部署是支持 HTTP 方式访问,但我找了好多其他文档都没有此方式部署后进行 HTTP 请求访问服务的例子。自己使用 Postman 尝试进行 Http 请求访问但出现如下问题:

  1. 若想使用 Pipeline 服务对于多语言文件进行 OCR 检测,是否需要部署多个服务
    从文档 PaddleOCR 快速开始 中可以看到可以根据指定 --lang 参数进行切换检测语言,但我通过 Pipeline 方式部署在 PP-OCR系列模型列表 选择识别模型时只找到了各个语言的识别模型,想问一下咱们有多国语言统一的识别模型么?
km0tfn4u

km0tfn4u4#

你好,建议再检查下端口是否被占用或者指定正确
在 win10 环境下使用 docker 运行镜像时使用 --network=host 无法检测到端口,而使用 -p 参数指定端口时可以

liwlm1x9

liwlm1x95#

  1. http 请求可参考文档:https://github.com/PaddlePaddle/Serving/blob/e5d6f23c206c2cba3dae998a517c2cfb8c89e06c/doc/Offical_Docs/5-4_HTTP_API_CN.md#L3
  2. 多语言模型需要启动多个服务,目前语种和识别模型是意义对应的。
  3. --network=host 无法检测到端口,而使用 -p 参数指定端口时可以。 这个问题解决了嘛?
dgsult0t

dgsult0t6#

  1. http 请求可参考文档:https://github.com/PaddlePaddle/Serving/blob/e5d6f23c206c2cba3dae998a517c2cfb8c89e06c/doc/Offical_Docs/5-4_HTTP_API_CN.md#L3
  2. 多语言模型需要启动多个服务,目前语种和识别模型是意义对应的。
  3. --network=host 无法检测到端口,而使用 -p 参数指定端口时可以。 这个问题解决了嘛?

Http 请求访问问题已经解决了,是我给的 data 数据不对导致的。至于 --network=host 无法检测到端口 的问题并未解决,目前使用 -p 参数进行部署的

相关问题