我已经使用了googlecloudstorageconnectorforhadoop,并且能够运行mapreduce作业,该作业从本地hdfs(在本地机器上运行的hadoop)获取输入,并将结果放入googlecloud存储桶。
现在我想使用googledatastoreconnectorforhadoop运行一个mapreduce作业,它从本地hdfs(在我的本地机器上运行的hadoop)获取输入,并将结果放入云数据存储类(kind与数据库表同义)。
请帮助我什么是所有的配置,我需要给什么步骤,我必须遵循。
暂无答案!
目前还没有任何答案,快来回答吧!