ludwig 直接部署到AWS sage maker / Azure ML Studio / GCP

3okqufwl  于 4个月前  发布在  其他
关注(0)|答案(8)|浏览(43)

您的功能请求是否与问题相关?请描述。

需要进行大量的自定义工作来部署模型。

描述使用场景

我使用ludwig构建了这个模型,现在如果能提供我的AWS/AZURE凭证并进行部署,返回一个端点,将有助于快速部署模型。

描述您希望的解决方案

使用ludwig --experiment命令,然后执行ludwig --deploy aws/azure/gcp命令。

描述您考虑过的替代方案

构建Docker镜像并部署到Kubernetes。

btxsgosb

btxsgosb1#

谢谢,这是一个好主意。
已添加到功能请求列表中。
很乐意接受对此的贡献。

ar7v8xwq

ar7v8xwq2#

我绝对可以帮助Sagemaker部署自动化部分。

sg24os4d

sg24os4d3#

我绝对可以帮助Sagemaker部署自动化部分。
那太好了!

0wi1tuuw

0wi1tuuw4#

路德维希是否已经将TensorFlow模型保存为SavedModel格式?

5kgi1eie

5kgi1eie5#

Ludwig是否已经将TensorFlow模型保存为SavedModel格式?
是的,Ludwig可以将模型导出为SavedModel,但如果您希望结果有意义,您需要以正确的方式预处理传入的数据并正确后处理模型输出,因此仅上传不带预处理/后处理数据的SavedModel无法实现这一点。
一个选项是使用export Neuropod功能,它也执行预处理和后处理。
另一个附加选项是使用ludwig serve命令,该命令生成一个Rest API,用于执行预处理、模型推理和后处理。

ikfrs5lh

ikfrs5lh6#

你好,@kaykumar。我已经创建了一个示例,展示了如何使用Amazon SageMaker构建、训练和部署一个ludwig模型,包括从源代码构建容器,以便您拥有最新的ludwig代码。
查看: https://github.com/aws-samples/amazon-sagemaker-ludwig-transformer

rvpgvaaj

rvpgvaaj7#

@brightsparc 很好,非常感谢!您介意我们在网站的示例部分将此作为部署示例进行参考吗?

oipij1gg

oipij1gg8#

@w4nderlust 当然,引用这些会很好。

相关问题