在Hadoop中添加BigDecimals的最佳方法是什么?

8tntrjer  于 2022-12-11  发布在  Hadoop
关注(0)|答案(1)|浏览(236)

我需要在Hadoop中添加BigDecimals。我目前正在使用Apache Pig BigDecimalWritable,但Pig似乎完全过时了。

  1. <dependency>
  2. <groupId>org.apache.pig</groupId>
  3. <artifactId>pig</artifactId>
  4. <version>0.17.0</version>
  5. </dependency>

这个版本已经5岁了!!

4ktjp1zp

4ktjp1zp1#

我现在改用:

  1. <dependency>
  2. <groupId>org.apache.parquet</groupId>
  3. <artifactId>parquet-hive-storage-handler</artifactId>
  4. <version>1.11.2</version>
  5. </dependency>
  6. <dependency>
  7. <groupId>org.apache.hive</groupId>
  8. <artifactId>hive-serde</artifactId>
  9. <version>4.0.0-alpha-1</version>
  10. <exclusions>
  11. <exclusion>
  12. <groupId>org.apache.logging.log4j</groupId>
  13. <artifactId>log4j-slf4j-impl</artifactId>
  14. </exclusion>
  15. </exclusions>
  16. </dependency>

Parquet包含一个BigDecimalWritable并且更新。
有没有更好的办法?

展开查看全部

相关问题