检查其他资源
- 我为这个问题添加了一个非常描述性的标题。
- 我使用集成搜索在LangChain文档中进行了搜索。
- 我使用GitHub搜索查找了一个类似的问题,但没有找到。
- 我确信这是LangChain中的一个bug,而不是我的代码。
- 通过更新到LangChain的最新稳定版本(或特定集成包)无法解决此bug。
示例代码
import os
from dotenv import load_dotenv
from langchain_core.globals import set_debug
from langchain_core.messages import HumanMessage, SystemMessage
from langchain_openai import ChatOpenAI
set_debug(True)
load_dotenv()
model = ChatOpenAI(
api_key=os.getenv('OPENAI_API_KEY'),
base_url=os.getenv('OPENAI_BASE_URL'),
model="gpt-3.5-turbo"
)
messages = [
SystemMessage(content="Translate the following from English into Italian"),
HumanMessage(content="hi!"),
]
if __name__ == "__main__":
print(model.invoke(messages))
错误信息和堆栈跟踪(如果适用)
[llm/start] [llm:ChatOpenAI] Entering LLM run with input:
{
"prompts": [
"System: Translate the following from English into Italian\nHuman: hi!"
]
}
描述
它应该像这样吗?
[llm/start] [llm:ChatOpenAI] Entering LLM run with input:
{
"prompts": [
"System": "Translate the following from English into Italian",
"Human": "hi!"
]
}
系统信息
我在两个conda环境中尝试过:
langchain 0.2.5
Windows 11
python Python 3.11.9
langchain 0.1.10
Windows 11
python Python 3.11.7
2条答案
按热度按时间vm0i2vca1#
你看到的终端输出只是***CallBackHandler的中间日志,处理函数将聊天提示消息扁平化为单个字符串进行记录。所以,我相信这不是一个错误。
h4cxqtbf2#
你看到的终端输出只是***CallBackHandler的中间日志,处理函数将聊天提示消息扁平化为单个字符串进行记录。所以,我相信这不是一个bug。
是的,我已经检查了网络请求,没有问题。但这样的输出会导致误解。