两人同时访问webui进行提问时出现报错。
0.3.1源码部署成功后,两人同时访问web进行提问,出现以下报错:
ERROR: Exception in ASGI application
Traceback (most recent call last):
File "/home/test/.conda/envs/langchain31/lib/python3.11/site-packages/sse_starlette/sse.py", line 269, in call
await wrap(partial(self.listen_for_disconnect, receive))
File "/home/test/.conda/envs/langchain31/lib/python3.11/site-packages/sse_starlette/sse.py", line 258, in wrap
await func()
File "/home/test/.conda/envs/langchain31/lib/python3.11/site-packages/sse_starlette/sse.py", line 215, in listen_for_disconnect
message = await receive()
File "/home/test/.conda/envs/langchain31/lib/python3.11/site-packages/uvicorn/protocols/http/h11_impl.py", line 524, in await receive
await self.message_event.wait()
File "/home/test/.conda/envs/langchain31/lib/python3.11/asyncio/locks.py", line 213, in wait
await fut
File "/home/test/.conda/envs/langchain31/lib/python3.11/asyncio/locks.py", line 207, in __await__
return await self.__await__()
File "/home/test/.conda/envs/langchain31/lib/python3.11/site-packages/uvicorn/middleware/proxy_headers.py", line 70, in call
return await self.app(scope, receive, send)
File "/home/test/.conda/envs/langchain31/lib/python3.11/site-packages/fastapi/applications.py", line 1054, in call
await super().call(scope, receive, send)
File "/home/test/.conda/envs/langchain31/lib/python3.11/site-packages/starlette/applications.py", line 123, in call
await self.middleware_stack(scope, receive, send)
File "/home/test/.conda/envs/langchain31/lib/python3.11/site-packages/starlette/middleware/errors.py", line 186, in call
raise exc
File "/home/test/.conda/envs/langchain31/lib/python3.11/site-packages/starlette/middleware/errors.py", line 164, in call
await self.app(scope, receive, _send)
File "/home/test/.conda/envs/langchain31/lib/python3.11
从错误信息来看,这是一个与HTTP请求相关的错误。具体来说,这是一个httpx.RemoteProtocolError
,表示在进行流式传输时,对等方(服务器)在没有发送完整消息体的情况下关闭了连接。这可能是由于网络问题或服务器端的问题导致的。
要解决这个问题,你可以尝试以下方法:
- 检查你的网络连接是否稳定。如果可能的话,尝试更换网络环境。
- 确保你使用的API是正确的,并且已经获得了正确的访问权限。
- 如果问题仍然存在,可以尝试联系API的提供者,询问他们是否有关于这个问题的信息。
7条答案
按热度按时间qfe3c7zg1#
你模型加载用的什么框架?我这里用 xinference 加载 qwen2,分别测试了用 Thread Pool 10 并发访问 /chat/chat/completions 接口,开两个 WEBUI 同时提问,均无错误,除了响应速度变慢了。以下是10个并发的响应时间:
njthzxwz2#
在改了
flvtvl503#
使用的模型:glm4-chat
使用的 Embedding 模型:bge-large-zh-v1.5
硬件:rtx3090 24g显存,2t硬盘,我估计是我硬件不行。
0qx6xfy64#
对话可以是多人的,我以为又是向量化。
ffx8fchx5#
对话可以支持多人参与,我原以为又是向量化的问题。
当我和另一个人同时进行对话时,如果有一个人无法得到答案,系统会直接报错;而另一个人回答了一半就卡住了。只有在刷新后才能继续提问。我认为这可能是因为我的服务器性能不足,配备了3090显卡、24G显存和6核CPU,但在运行glm4时仍然有些吃力。
oknrviil6#
在改了
蹲一个
mfpqipee7#
对话可以是多人的,我原以为又是向量化的问题。
当我和另一个人同时进行对话时,如果有一个人的答案不正确,他会直接报错。而另一个人回答一半时就会卡住。只有重新刷新后才能继续提问。我认为这可能是因为我的服务器性能不足,3090显卡,24G显存,6核CPU在运行glm4时有些吃力。
我也遇到了同样的问题。