首页
问答库
知识库
教程库
标签
AI工具箱
登录
注册
投稿
inference
+ 关注
文章:
0
|
问答:
3
|
关注:
0
暂无介绍
文章
|
问答
2
回答
111
浏览
inference QUESTION: Encoutering libcudart.so.12: cannot open shared object file: No such file or directory
inference
其他
eqzww0vc
9个月前
浏览 (111)
9个月前
2
回答
169
浏览
inference 问题:部署0.10.1版本的Docker qwen1.5-32B时,出现一直感叹号的情况,不知道是推理问题还是qwen问题,
inference
Docker
s4n0splo
9个月前
浏览 (169)
9个月前
3
回答
114
浏览
inference 大批量请求后 服务直接卡死
inference
其他
btxsgosb
9个月前
浏览 (114)
9个月前
1
回答
130
浏览
inference 在Rocm5.6/py310/pytorch2.1.2环境中,Xinf无法识别AMD GPU,
inference
其他
e3bfsja2
9个月前
浏览 (130)
9个月前
2
回答
115
浏览
inference ChatGLM3-128k 模型实际最大输出被限制在了 4096
inference
其他
ufj5ltwl
9个月前
浏览 (115)
9个月前
2
回答
111
浏览
inference v10.2.post1,命令行BUG,默认执行pytorch格式模型
inference
其他
6psbrbz9
9个月前
浏览 (111)
9个月前
1
回答
114
浏览
inference BUG: ImportError: 无法从 'typing_extensions' 导入 'Union' (/usr/local/lib/python3.10/dist-packages/typing_extensions.py)
inference
Python
yhived7q
9个月前
浏览 (114)
9个月前
1
回答
103
浏览
inference GLM4-9B-chat模型推理报错
inference
其他
x33g5p2x
9个月前
浏览 (103)
9个月前
1
回答
131
浏览
inference qwen-vl开启Steam模式失败
inference
其他
kpbpu008
9个月前
浏览 (131)
9个月前
2
回答
152
浏览
inference ColBert/ColBertv2的支持
inference
其他
s4chpxco
9个月前
浏览 (152)
9个月前
2
回答
113
浏览
inference GLM-4V 模型显存使用量计算bug
inference
其他
axzmvihb
9个月前
浏览 (113)
9个月前
3
回答
144
浏览
inference 安装llama-cpp-python cuda 推理加速支持时,提示"找不到nvcc,请设置CUDAToolkit_ROOT,"
inference
Python
edqdpe6u
9个月前
浏览 (144)
9个月前
5
回答
235
浏览
inference QUESTION: How to deploy as extensible docker image
inference
Docker
p4tfgftt
9个月前
浏览 (235)
9个月前
4
回答
161
浏览
Xinference Dify集成问题
inference
其他
1qczuiv0
9个月前
浏览 (161)
9个月前
2
回答
135
浏览
[BUG] 使用Xinference启动自定义模型时出现错误[BUG]
inference
其他
fiei3ece
9个月前
浏览 (135)
9个月前
2
回答
117
浏览
inference 模型已经下载完成,启动时出现ServerClosed错误
inference
其他
webghufk
9个月前
浏览 (117)
9个月前
1
回答
103
浏览
inference ENH: daemon mode
inference
其他
332nm8kg
10个月前
浏览 (103)
10个月前
1
回答
122
浏览
inference ENH: Implement a load balancer
inference
其他
ut6juiuv
10个月前
浏览 (122)
10个月前
1
回答
176
浏览
inference 问题:worker无法通过PodIP连接到supervisor 翻译结果:Worker无法通过PodIP连接到supervisor
inference
其他
9nvpjoqh
10个月前
浏览 (176)
10个月前
1
回答
130
浏览
DOC: add doc about xinference_client
inference
其他
izj3ouym
10个月前
浏览 (130)
10个月前
1
回答
146
浏览
inference FEAT: 支持代码GeeX4
inference
其他
h5qlskok
10个月前
浏览 (146)
10个月前
5
回答
427
浏览
调用/v1/chat/completions接口,使用jmeter 10并发进行压测,压测1分钟后xinference挂了,xinference版本为0.11.3,
inference
其他
ssgvzors
10个月前
浏览 (427)
10个月前
4
回答
129
浏览
inference 当推理Gemma-2时,响应重复,
inference
其他
11dmarpk
10个月前
浏览 (129)
10个月前
2
回答
199
浏览
如何使用BAAI/bge-reranker-v2-minicpm-layerwise rerank模型调用xinferenceapi
inference
其他
nlejzf6q
10个月前
浏览 (199)
10个月前
1
回答
198
浏览
inference BUG 无法加载ChatTTS模型
inference
其他
sd2nnvve
10个月前
浏览 (198)
10个月前
4
回答
136
浏览
【Bug】在xinference主界面的UI中,自定义模型板块中的PyTorch类型选项缺少自定义量化的设置,目前只能通过代码注册模型,
inference
其他
yrdbyhpb
10个月前
浏览 (136)
10个月前
2
回答
114
浏览
inference 请问书生InternVL2什么时候可以支持?谢谢,
inference
其他
gfttwv5a
10个月前
浏览 (114)
10个月前
1
回答
144
浏览
inference 支持阿里巴巴语音识别模型:SenseVoice
inference
其他
3okqufwl
10个月前
浏览 (144)
10个月前
2
回答
224
浏览
安装完成后,运行xinference-local --host 0.0.0.0 --port 9997报错,
inference
其他
bvjveswy
10个月前
浏览 (224)
10个月前
1
回答
142
浏览
inference 支持阿里巴巴文字转语音模型:CosyVoice,支持多种音色以及复刻音色,
inference
其他
piv4azn7
10个月前
浏览 (142)
10个月前
首页
上一页
1
2
3
4
下一页
末页
热门标签
更多
Java
query
python
Node
开发语言
request
Util
数据库
Table
后端
算法
Logger
Message
Element
Parser
最新问答
更多
xxl-job 安全组扫描到执行器端口服务存在信息泄露漏洞
回答(1)
发布于
8个月前
xxl-job 不能和nacos兼容?
回答(3)
发布于
8个月前
xxl-job 任务执行完后无法结束,日志一直转圈
回答(3)
发布于
8个月前
xxl-job-admin页面上查看调度日志样式问题
回答(1)
发布于
8个月前
xxl-job 参数512字符限制能否去掉
回答(1)
发布于
8个月前