检查其他资源
- 为这个问题添加了一个非常描述性的标题。
- 使用集成搜索在LangChain文档中进行了搜索。
- 使用GitHub搜索查找类似的问题,但没有找到。
- 我确信这是LangChain中的一个bug,而不是我的代码。
- 通过更新到LangChain的最新稳定版本(或特定集成包)无法解决此错误。
示例代码
使用以下用于语义缓存的代码:
from langchain.globals import set_llm_cache
from langchain_openai import OpenAI
from langchain.cache import RedisSemanticCache
from langchain_huggingface import HuggingFaceEmbeddings
import time, os
from langchain_openai import AzureChatOpenAI
llm = AzureChatOpenAI(<my credentials>)
huggingface_embedding = HuggingFaceEmbeddings(model_name="all-MiniLM-L6-v2")
set_llm_cache(
RedisSemanticCache(redis_url="redis://127.0.0.1:6379", embedding=huggingface_embedding)
)
question = "What is capital of Japan?"
res = llm.invoke(question)
我已经安装了redis数据库和redis python客户端。redis-5.0.6
redis-cli 7.2.5
但仍然出现给定的错误
[BUG]ValueError: Redis failed to connect: Redis cannot be used as a vector database without RediSearch >=2.4Please head to https://redis.io/docs/stack/search/quick_start/to know more about installing the RediSearch module within Redis Stack.
但奇怪的是,在pypi中没有可用的2.4版本的python客户端RediSearch
1条答案
按热度按时间z2acfund1#
#13611
一些相关问题,但是否有办法在不依赖Docker的情况下解决它?