在hadoop集群中加载了将近50gb的csv文件,我想看到一些用于识别列的示例记录。我试过使用
hadoop fs -cat employees.csv | head -n 10
我的问题是这是查看数据的正确命令吗? head -n 10 -它将加载50 gb的数据,它会做过滤前10行?它是如何工作的?还有更好的方法吗?
head -n 10
wmtdaxz31#
这取决于你的版本。对于较旧的hadoop(<3.1.0)版本:
对于更新的(>=3.1.0)hadoop版本
hadoop fs -head employees.csv
1条答案
按热度按时间wmtdaxz31#
这取决于你的版本。
对于较旧的hadoop(<3.1.0)版本:
对于更新的(>=3.1.0)hadoop版本