hadoop项目启动时需要哪些JAR?

yv5phkfx  于 2021-05-30  发布在  Hadoop
关注(0)|答案(2)|浏览(382)

这似乎是一个愚蠢的问题,但我是新的hadoop,并试图运行一个简单的例子。但是,我经常遇到jar文件的问题,并且似乎没有正确的导入。我使用的是clouderacdh4,它有很多jar文件可供选择,每个文件有几个版本。因为我才刚刚开始,我无法区分。目前我得到了一个例外:

  1. Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/commons/configuration/Configuration
  2. at org.apache.hadoop.metrics2.lib.DefaultMetricsSystem.<init>(DefaultMetricsSystem.java:38)
  3. at org.apache.hadoop.metrics2.lib.DefaultMetricsSystem.<clinit>(DefaultMetricsSystem.java:36)
  4. at org.apache.hadoop.security.UserGroupInformation$UgiMetrics.create(UserGroupInformation.java:120)
  5. at org.apache.hadoop.security.UserGroupInformation.<clinit>(UserGroupInformation.java:236)
  6. at org.apache.hadoop.mapreduce.task.JobContextImpl.<init>(JobContextImpl.java:72)
  7. at org.apache.hadoop.mapreduce.Job.<init>(Job.java:144)
  8. at org.apache.hadoop.mapreduce.Job.<init>(Job.java:131)
  9. at org.apache.hadoop.mapreduce.Job.<init>(Job.java:139)
  10. at com.ayon.hadoop.firstimpl.Driver1.main(Driver1.java:23)Caused by: java.lang.ClassNotFoundException: org.apache.commons.configuration.Configuration
  11. at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
  12. at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
  13. at java.security.AccessController.doPrivileged(Native Method)
  14. at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
  15. at java.lang.ClassLoader.loadClass(ClassLoader.java:425)
  16. at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
  17. at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
  18. ... 9 more

可能是因为错误的jar文件导入。所以我的问题是:
有人能告诉我启动一个简单的hadoop作业需要哪些基本jar文件吗?此外,任何指向上述异常的指针都将不胜感激。

2ekbmq32

2ekbmq321#

要包含所有必需的jar文件,请使用以下命令编译代码:

  1. # javac -cp `$HADOOP_HOME\bin\hadoop classpath` YourClassFile.java

请注意报价

7gyucuyw

7gyucuyw2#

如果您使用的是eclipse,请按照以下步骤将jar添加到您的项目中

  1. 1.Right click on the project
  2. 2.Go to Properties
  3. 3.Click on "Java Build Path"
  4. 4.Libraries Tab
  5. 5.Add External JARs
  6. 6.Select the path "/usr/local/hadoop"
  7. 7.Select all "JAR files" & add all JARs
  8. 8.Again "Add EXternal JARs"
  9. 9.Go to path "/usr/local/hadoop/lib"
  10. 10.ADD all JARs in there
  11. 11.Click "Ok"

你准备好了。希望这有帮助。。同样,这取决于您使用的eclipse版本。

相关问题