使用AnythingLLM桌面应用。
在使用LLM首选项中的通用OpenAI选项时,我得到的大多数答案要么是空的,要么非常短/不完整。请参阅下面的截图。不完整的答案:(Lora和QLora论文已添加到工作区)
LLM设置:
请参阅上面的截图。
pxy2qtax1#
你在这里使用的LLM API是什么?这种情况通常发生在你正在连接的LLM API与OpenAI的方式不同,无法形成流式数据块。如果我们能访问你正在使用的API,我们可以为该特定API创建一个自定义集成,使其能够以不同的方式处理流式数据块,而不仅仅是在几个令牌后结束流。
q9rjltbz2#
我正在使用灵异屋的API。请参考https://platform.lingyiwanwu.com/docs(抱歉页面是中文的)。我不能公开我的密钥,但他们提供免费试用(最多36元人民币),一旦注册成功。来自他们的文档的API调用示例:
import openai from openai import OpenAI API_BASE = "https://api.lingyiwanwu.com/v1" API_KEY = "your key" client = OpenAI( api_key=API_KEY, base_url=API_BASE ) completion = client.chat.completions.create( model="yi-large", messages=[{"role": "user", "content": "Hi, who are you?"}] ) print(completion)
pcww981p3#
这将在桌面应用的下一个版本中修复。这个问题已经在PR #1487中修补了:+1
3条答案
按热度按时间pxy2qtax1#
你在这里使用的LLM API是什么?这种情况通常发生在你正在连接的LLM API与OpenAI的方式不同,无法形成流式数据块。如果我们能访问你正在使用的API,我们可以为该特定API创建一个自定义集成,使其能够以不同的方式处理流式数据块,而不仅仅是在几个令牌后结束流。
q9rjltbz2#
我正在使用灵异屋的API。请参考https://platform.lingyiwanwu.com/docs(抱歉页面是中文的)。我不能公开我的密钥,但他们提供免费试用(最多36元人民币),一旦注册成功。
来自他们的文档的API调用示例:
pcww981p3#
这将在桌面应用的下一个版本中修复。这个问题已经在PR #1487中修补了:+1