你好,DeepSpeed-MII团队!
我正在使用MII与GPT-J合作的一个项目中遇到了一个需求:需要能够传递return_dict_in_generate。到目前为止,我已经完成了流程并修改了以下文件:
- server_client.py (mii_query_handle)
- modelresponse_server.py (GeneratorReply())
- modelresponse.proto (MultiStringReply)
然而,在部署模型后,我在gRPC通道中遇到了一个未实现的方法异常。所以我想请教一下:
- 这种方法是扩展文本生成任务以从部署的HF模型返回额外信息的正确或首选方法吗?
- 在使用MII时,如何处理proto编译?如果修改了modelresponse.proto,这是否是一个安装过程中的标准部分,还是我需要手动编译proto?
谢谢!
3条答案
按热度按时间gdx19jrr1#
如果这解决了你的问题,请告诉我!
pjngdqdw2#
感谢您@mrwyattii
如果目前只支持这些有限的数据类型,那么处理模型调试的最佳方法是什么?我在提交PR时遇到的问题之一是,我还没有找到一种优雅的方法来跟踪和调试基于远程gRPC部署的模型本身。如果将异常报告传递给gRPC以及附加的kwarg输出,是否有更多关于获取模型异常报告可见性的指针?
jdzmm42g3#
遗憾的是,gRPC会在服务器端截断错误消息,使得调试变得困难。我们计划很快添加一个非gRPC部署类型来解决这个问题。目前,我建议仅使用DeepSpeed-inference测试您的模型。查看我们在MII和DeepSpeed单元测试中如何调用
deepspeed.init_inference
。这应该有助于在测试新模型时获取完整的堆栈跟踪和错误消息。