您的功能请求是否与问题相关?请描述。
需要进行大量的自定义工作来部署模型。
描述使用场景
我使用ludwig构建了这个模型,现在如果能提供我的AWS/AZURE凭证并进行部署,返回一个端点,将有助于快速部署模型。
描述您希望的解决方案
使用ludwig --experiment命令,然后执行ludwig --deploy aws/azure/gcp命令。
描述您考虑过的替代方案
构建Docker镜像并部署到Kubernetes。
btxsgosb1#
谢谢,这是一个好主意。已添加到功能请求列表中。很乐意接受对此的贡献。
ar7v8xwq2#
我绝对可以帮助Sagemaker部署自动化部分。
sg24os4d3#
我绝对可以帮助Sagemaker部署自动化部分。那太好了!
0wi1tuuw4#
路德维希是否已经将TensorFlow模型保存为SavedModel格式?
5kgi1eie5#
Ludwig是否已经将TensorFlow模型保存为SavedModel格式?是的,Ludwig可以将模型导出为SavedModel,但如果您希望结果有意义,您需要以正确的方式预处理传入的数据并正确后处理模型输出,因此仅上传不带预处理/后处理数据的SavedModel无法实现这一点。一个选项是使用export Neuropod功能,它也执行预处理和后处理。另一个附加选项是使用ludwig serve命令,该命令生成一个Rest API,用于执行预处理、模型推理和后处理。
ludwig serve
ikfrs5lh6#
你好,@kaykumar。我已经创建了一个示例,展示了如何使用Amazon SageMaker构建、训练和部署一个ludwig模型,包括从源代码构建容器,以便您拥有最新的ludwig代码。查看: https://github.com/aws-samples/amazon-sagemaker-ludwig-transformer
rvpgvaaj7#
@brightsparc 很好,非常感谢!您介意我们在网站的示例部分将此作为部署示例进行参考吗?
oipij1gg8#
@w4nderlust 当然,引用这些会很好。
8条答案
按热度按时间btxsgosb1#
谢谢,这是一个好主意。
已添加到功能请求列表中。
很乐意接受对此的贡献。
ar7v8xwq2#
我绝对可以帮助Sagemaker部署自动化部分。
sg24os4d3#
我绝对可以帮助Sagemaker部署自动化部分。
那太好了!
0wi1tuuw4#
路德维希是否已经将TensorFlow模型保存为SavedModel格式?
5kgi1eie5#
Ludwig是否已经将TensorFlow模型保存为SavedModel格式?
是的,Ludwig可以将模型导出为SavedModel,但如果您希望结果有意义,您需要以正确的方式预处理传入的数据并正确后处理模型输出,因此仅上传不带预处理/后处理数据的SavedModel无法实现这一点。
一个选项是使用export Neuropod功能,它也执行预处理和后处理。
另一个附加选项是使用
ludwig serve
命令,该命令生成一个Rest API,用于执行预处理、模型推理和后处理。ikfrs5lh6#
你好,@kaykumar。我已经创建了一个示例,展示了如何使用Amazon SageMaker构建、训练和部署一个ludwig模型,包括从源代码构建容器,以便您拥有最新的ludwig代码。
查看: https://github.com/aws-samples/amazon-sagemaker-ludwig-transformer
rvpgvaaj7#
@brightsparc 很好,非常感谢!您介意我们在网站的示例部分将此作为部署示例进行参考吗?
oipij1gg8#
@w4nderlust 当然,引用这些会很好。