Flowise [BUG] webservice预测端点和langfuse跟踪(llmchain/结构化输出解析器)之间的差异

x7yiwoj4  于 5个月前  发布在  其他
关注(0)|答案(1)|浏览(55)

描述bug

webservice输出和使用llmchain和json输出的langfuse跟踪之间存在差异。在web服务中,JSON输出的结构位于"json"键下,而在langfuse中,JSON被追踪在"text"键下。

webservices:

{
    "json": {
        "go_back_to_menu": false,
        "transfer_to_agent": false
    },
    "question": "hey",
    "chatId": "issue-1",
    "chatMessageId": "a057c1b8-82c5-4727-9d99-9c0c20d29995",
    "sessionId": "issue-1"
}

在langfuse(LLM链跨度)上:

{
text: {
go_back_to_menu: false
transfer_to_agent: false
}
}

注意:我使用了带有自动修复功能的结构化输出解析器

重现

Flowise: 1.8.0
带有输出解析器的LLM链(自动修复开启)
使用curl(Postman)预测端点
--> json键
检查langfuse跟踪
--> text键

预期行为

预测端点响应与langfuse跟踪保持一致。

截图

附加上下文

基本链,使用json输出。

vx6bjr1n

vx6bjr1n1#

text 是用于追踪输出的关键 - https://github.com/FlowiseAI/Flowise/blob/main/packages/components/src/handler.ts#L455

相关问题