在大模型回答中出现<|im_end|><|im_start|>user类似的文字
想询问一下该如何修改代码可以让大模型回答保持正常
无
k2fxgqgv1#
将任务分配给方一臣。
frebpwbc2#
自己手动尝试新增一行代码
file: dbgpt/model/proxy/llms/chatgpt.py async def chatgpt_generate_stream( model: ProxyModel, tokenizer, params, device, context_len=2048 ): client: OpenAILLMClient = model.proxy_llm_client context = ModelRequestContext(stream=True, user_name=params.get("user_name")) request = ModelRequest.build_request( client.default_model, messages=params["messages"], temperature=params.get("temperature"), context=context, max_new_tokens=params.get("max_new_tokens"), ++ stop="<|im_end|>" ) async for r in client.generate_stream(request): yield r
2条答案
按热度按时间k2fxgqgv1#
将任务分配给方一臣。
frebpwbc2#
自己手动尝试新增一行代码