上下文:我用r和python开发了一个预测模型。我甚至有一个亚马逊预测的数据集。之所以有三个独立的模型是为了对不同地区的数据获得更好的精度。数据大小可以是gb。问题:我想用spark自动化从数据提取到将预测通过电子邮件发送给客户的整个过程。如何从spark开始执行所有现有的模型(r、python、amazon forecast),并每天早上安排这个过程?
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!