首页
问答库
知识库
教程库
标签
AI工具箱
登录
注册
投稿
inference
+ 关注
文章:
0
|
问答:
3
|
关注:
0
暂无介绍
文章
|
问答
1
回答
51
浏览
inference rerank结果中返回的document为空
inference
其他
sc4hvdpw
5个月前
浏览 (51)
5个月前 
4
回答
43
浏览
inference QUESTION
inference
其他
wljmcqd8
5个月前
浏览 (43)
5个月前 
1
回答
47
浏览
inference 无法安装Orion-14B-Chat-RAG
inference
其他
ih99xse1
5个月前
浏览 (47)
5个月前 
1
回答
56
浏览
inference QUESTION 如何在容器启动时自动加载指定模型
inference
其他
qgelzfjb
5个月前
浏览 (56)
5个月前 
2
回答
76
浏览
inference Docker镜像需要安装flash-attn,
inference
Docker
dpiehjr4
5个月前
浏览 (76)
5个月前 
2
回答
53
浏览
inference 能否指定 GPU 运行?
inference
其他
qgzx9mmu
5个月前
浏览 (53)
5个月前 
1
回答
38
浏览
inference 考虑让用户指定模型路径(来自本地计算机)或下载仓库(hf或modelscope中的自定义仓库)以构建内置模型,
inference
其他
mccptt67
5个月前
浏览 (38)
5个月前 
1
回答
49
浏览
inference 建议增加界面n_ctx参数配置,Qwen1.5-14B-Chat-GGUF模型默认小显存无法运行
inference
其他
dxpyg8gm
5个月前
浏览 (49)
5个月前 
3
回答
42
浏览
inference BUG: 使用Xinferrence启动qwe1.5-14b-GGUF失败,但在纯llama_cpp python中运行正常,
inference
Python
v64noz0r
5个月前
浏览 (42)
5个月前 
2
回答
38
浏览
inference BUG: qwen1.5 gptq int8 errored
inference
其他
cgh8pdjw
5个月前
浏览 (38)
5个月前 
1
回答
72
浏览
inference 有docker部署embedding的示例吗
inference
Docker
vbopmzt1
5个月前
浏览 (72)
5个月前 
3
回答
47
浏览
问题:使用xinference作为后台服务时,无法同时让多人进行提问,
inference
其他
xesrikrc
5个月前
浏览 (47)
5个月前 
2
回答
54
浏览
inference 支持FunASR
inference
其他
qvtsj1bj
5个月前
浏览 (54)
5个月前 
2
回答
47
浏览
inference Qwen-Audio支持
inference
其他
scyqe7ek
5个月前
浏览 (47)
5个月前 
1
回答
42
浏览
问题:Xinference.core.worker 4040错误,无法加载模型chatglm3-1-0,
inference
其他
cigdeys3
5个月前
浏览 (42)
5个月前 
1
回答
41
浏览
xinference.model.audio.whisper 64759 警告:将忽略对 whisper 转录的提示,
inference
其他
jdg4fx2g
5个月前
浏览 (41)
5个月前 
2
回答
38
浏览
inference BUG:音频模型无法在魔搭社区下载
inference
其他
7xllpg7q
5个月前
浏览 (38)
5个月前 
1
回答
39
浏览
inference qwen1.5-7b多卡启动报错
inference
其他
ejk8hzay
5个月前
浏览 (39)
5个月前 
1
回答
46
浏览
inference 自定义模型Yi-6b,原本是base模型微调后成chat模型,运行后无法进行对话,提示:提示model_revision=None is not for chat.
inference
其他
ozxc1zmp
5个月前
浏览 (46)
5个月前 
2
回答
45
浏览
inference 在使用qwen1.5聊天模型时,没有向vllm添加停用词,
inference
其他
hfsqlsce
5个月前
浏览 (45)
5个月前 
1
回答
52
浏览
inference 功能需求
inference
其他
nimxete2
5个月前
浏览 (52)
5个月前 
3
回答
39
浏览
inference 请问可以将lora纳入网页部署的选择内容吗?
inference
其他
wwodge7n
5个月前
浏览 (39)
5个月前 
1
回答
42
浏览
inference UI界面的注册自定义模型,模型参数无法输出0.5、1.8这些参数,希望下个版本修复
inference
其他
jaql4c8m
5个月前
浏览 (42)
5个月前 
2
回答
41
浏览
inference KV cache 的大小是哪里控制的?
inference
其他
lx0bsm1f
5个月前
浏览 (41)
5个月前 
5
回答
124
浏览
成功自定义部署本地模型,但在使用LangChain中的Xinference工具时,模型无法给出正常的回答,
inference
其他
lndjwyie
5个月前
浏览 (124)
5个月前 
4
回答
38
浏览
inference 在使用vllm运行模型失败时出现一直占用gpu问题(The gpu occupied problem occurred when the model failed to run using vllm)
inference
其他
cnh2zyt3
5个月前
浏览 (38)
5个月前 
2
回答
38
浏览
inference 是否支持注册本地文生图模型或音频模型?
inference
其他
toiithl6
5个月前
浏览 (38)
5个月前 
2
回答
48
浏览
inference 运行时错误:[地址=0.0.0.0:43266,进程ID=897] CUDA错误:无效参数,CUDA内核错误可能会在其他API调用中异步报告,因此下面的堆栈跟踪可能不正确,为了调试,请考虑传递CUDA_LAUNCH_BLOCKING=1,使用TORCH_USE_CUDA_DSA编译以启用设备端Assert,
inference
其他
bfnvny8b
5个月前
浏览 (48)
5个月前 
3
回答
43
浏览
inference 容器化部署和本地部署,运行结果不一致
inference
其他
wmtdaxz3
5个月前
浏览 (43)
5个月前 
1
回答
346
浏览
当运行可传递关系的查询时,grakn如何计算规则?
sql
inference
vaticle-typedb
vaticle-typeql
Java
jbose2ul
2021-08-13
浏览 (346)
2021-08-13 
首页
上一页
1
2
3
4
下一页
末页
热门标签
更多
Java
query
python
Node
开发语言
request
Util
数据库
Table
后端
算法
Logger
Message
Element
Parser
最新问答
更多
xxl-job 安全组扫描到执行器端口服务存在信息泄露漏洞
回答(1)
发布于
3个月前
xxl-job 不能和nacos兼容?
回答(3)
发布于
3个月前
xxl-job 任务执行完后无法结束,日志一直转圈
回答(3)
发布于
3个月前
xxl-job-admin页面上查看调度日志样式问题
回答(1)
发布于
3个月前
xxl-job 参数512字符限制能否去掉
回答(1)
发布于
3个月前