llama_index [Bug]:基岩版的粘附力仍然没有按照预期工作,

kgsdhlau  于 2个月前  发布在  其他
关注(0)|答案(1)|浏览(73)

Bug 描述

bug #13442 已解决。然而,我仍然在通过床架运行cohere.embed-multilingual-v3时遇到问题。创建文档节点时出错:调用InvokeModel操作时发生错误(ValidationException):输入太长,超出了请求的模型。它在986个字符以下和180个标记以下失败(远低于( https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-embed.html )声称的2048个和512个标记)。对于较小的数量,它可以正常运行。

版本

llama-index-embeddings-bedrock="0.2.1", llama-index="0.10.44"

重现步骤

node = TextNode(
 text=chunk_text,
 metadata=metadata_node,
 document_id=doc_uuid,
)
embed_model = model = BedrockEmbedding(
 model=model_name,
 aws_access_key_id=aws_access_key_id,
 aws_secret_access_key=aws_secret_access_key,
 region_name=region,
 callback_manager=callback_manager,
)
node.embedding = await embed_model.aget_text_embedding(node.text)

相关日志/回溯

  • 无响应*
rnmwe5a2

rnmwe5a21#

"验证异常:输入文本长度超过请求模型的最大允许长度。移除'Truncate'参数并不会改变模型在输入长度方面的固有限制。
要解决这个问题,请确保输入文本的长度在cohere.embed-multilingual-v3模型的可接受范围内。您可以在将输入文本发送到1(https://github.com/run-llama/llama_index/blob/main/llama-index-integrations/embeddings/llama-index-embeddings-bedrock/tests/test_bedrock.py)模型之前手动截断或拆分输入文本。

  • 要继续与Dosu对话,请提及@dosu。*"

相关问题