Bug 描述
bug #13442 已解决。然而,我仍然在通过床架运行cohere.embed-multilingual-v3时遇到问题。创建文档节点时出错:调用InvokeModel操作时发生错误(ValidationException):输入太长,超出了请求的模型。它在986个字符以下和180个标记以下失败(远低于( https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-embed.html )声称的2048个和512个标记)。对于较小的数量,它可以正常运行。
版本
llama-index-embeddings-bedrock="0.2.1", llama-index="0.10.44"
重现步骤
node = TextNode(
text=chunk_text,
metadata=metadata_node,
document_id=doc_uuid,
)
embed_model = model = BedrockEmbedding(
model=model_name,
aws_access_key_id=aws_access_key_id,
aws_secret_access_key=aws_secret_access_key,
region_name=region,
callback_manager=callback_manager,
)
node.embedding = await embed_model.aget_text_embedding(node.text)
相关日志/回溯
- 无响应*
1条答案
按热度按时间rnmwe5a21#
"验证异常:输入文本长度超过请求模型的最大允许长度。移除'Truncate'参数并不会改变模型在输入长度方面的固有限制。
要解决这个问题,请确保输入文本的长度在
cohere.embed-multilingual-v3
模型的可接受范围内。您可以在将输入文本发送到1(https://github.com/run-llama/llama_index/blob/main/llama-index-integrations/embeddings/llama-index-embeddings-bedrock/tests/test_bedrock.py)模型之前手动截断或拆分输入文本。