我们正在购买第三方调查数据。他们以sas格式向我们提供数据。源数据格式-sas频率-每日数据-完整的一年数据集(无增量)我们希望每天都能将这些数据带到hadoop环境中。我们有什么选择。我们要求他们用文本文件发送数据。但是他们的文本文件有8650列(对于前国家。。因此,他们有250列(每个国家一列)。我们的etl工具无法处理那么多列。根据他们的说法,以sas格式读取数据要容易得多。有什么建议吗。。谢谢
piv4azn71#
这里的问题不是技术问题。。。听起来他们只是无济于事。我的大部分工作都是在sas中完成的,我绝不会向某人提供一个包含那么多列的表,并期望他们导入它。即使他们以sas格式发送,sas数据集仍将具有相同的列数,etl工具(即使它可以读入sas数据集-这不太可能)仍有可能失败。告诉他们在sas中转置数据,这样列就少了,然后以文本文件的形式重新发送。
mzsu5hc02#
谢谢大家。。我想,这会解决我的问题:http://www.ats.ucla.edu/stat/sas/modules/tolong.htm
2条答案
按热度按时间piv4azn71#
这里的问题不是技术问题。。。听起来他们只是无济于事。我的大部分工作都是在sas中完成的,我绝不会向某人提供一个包含那么多列的表,并期望他们导入它。
即使他们以sas格式发送,sas数据集仍将具有相同的列数,etl工具(即使它可以读入sas数据集-这不太可能)仍有可能失败。
告诉他们在sas中转置数据,这样列就少了,然后以文本文件的形式重新发送。
mzsu5hc02#
谢谢大家。。
我想,这会解决我的问题:
http://www.ats.ucla.edu/stat/sas/modules/tolong.htm