我使用的是hdf-nifi 1.5和hdp-hive 3.1。
在配置单元中创建分区和bucketing表:
创建表default.client_tbl(client_key int,clt_name varchar(45),clt_description varchar(200),version int),由(client_key)聚类的(clt_status varchar(8))分区到3个存储桶中,存储为orc tblproperty('transactional'='true');
使用的executesql-->puthivestreaming
nifi日志显示写入hdfs路径的数据,但我无法查看配置单元表中的数据。
请查看nifi-app.log的附件。
1条答案
按热度按时间rekjcdws1#
如果您使用的是hdp hive 3.1,那么您将需要puthive3streaming而不是puthivestreaming。前者用于Hive3,后者用于Hive1.2.x。
话虽如此,Hive3组件可作为nifi 1.7.0+的。另外,如果您使用的是apachenifi发行版,那么默认情况下它不包括hive3nar(由于其大小)。您必须自己构建或使用为hdf构建的版本(用于hdp hive3),您可以在这里获得hdf3.2版本(nifi1.7.0)。