DB-GPT 当由vllm启动的openai api开始进行对话时,会发生这种情况,

cl25kdpy  于 2个月前  发布在  其他
关注(0)|答案(2)|浏览(27)

在提问前搜索

  • 我在 issues 中进行了搜索,但没有找到类似的功能需求。

描述

在大模型回答中出现<|im_end|><|im_start|>user类似的文字

用例

想询问一下该如何修改代码可以让大模型回答保持正常

相关问题

  • 无响应*

功能优先级

你是否愿意提交PR?

  • 是的,我愿意提交一个PR!
k2fxgqgv

k2fxgqgv1#

将任务分配给方一臣。

frebpwbc

frebpwbc2#

自己手动尝试新增一行代码

file: dbgpt/model/proxy/llms/chatgpt.py

async def chatgpt_generate_stream(
    model: ProxyModel, tokenizer, params, device, context_len=2048
):
    client: OpenAILLMClient = model.proxy_llm_client
    context = ModelRequestContext(stream=True, user_name=params.get("user_name"))
    request = ModelRequest.build_request(
        client.default_model,
        messages=params["messages"],
        temperature=params.get("temperature"),
        context=context,
        max_new_tokens=params.get("max_new_tokens"),
++      stop="<|im_end|>"
    )
    async for r in client.generate_stream(request):
        yield r

相关问题