DeepSpeed-MII MII在运行DeepSpeed-Inference时不使用DeepSpeed配置,

ui7jx7zq  于 6个月前  发布在  其他
关注(0)|答案(1)|浏览(82)

香草味的DeepSpeed-Inference接口允许配置不同的参数,例如max_output_tokens,但MII不支持。在这里我们可以看到,当模型部署时,只有在启用ds_zero时才会使用DeepSpeed Inference Config参数。

tv6aics1

tv6aics11#

你好,@rex-asabor MII生成推理配置并将其传递给deepspeed.init_inference。但是你是正确的,我们不允许用户设置所有的推理配置值(例如max_output_tokens)。我们目前正在进行一些重构以改进MII。听起来将额外的kwargs传递给DeepSpeed-Inference的能力会帮助你吗?如果是这样的话,我们可以将其添加到我们的改进列表中!

相关问题