我正在使用sqoop将数据从hdfs导出到netezza,并且有许多作业并行运行。其中很少有失败的,错误如下
导致sqoop作业失败。有人能帮我解决这个问题吗。我已经处理了netezza中表的所有权限和所有权。
2013年3月18日18:08:34 info mapreduce.job:任务id:尝试\u 1517179256891 \u 920980 \u m \u000005 \u 2,状态:失败错误:java.io.ioexception:java.lang.interruptedexception
在org.apache.hadoop.ipc.client.call(client。java:1463)在org.apache.hadoop.ipc.client.call(client。java:1398)在org.apache.hadoop.ipc.protobufrpceengine$invoker.invoke(protobufrpceengine。java:233)在com.sun.proxy.$proxy14.delete(未知源)上org.apache.hadoop.hdfs.protocolpb.clientnamenodeprotocoltranslatorpb.delete(clientnamenodeprotocoltranslatorpb。java:585)在sun.reflect.nativemethodaccessorimpl.invoke0(本机方法)在sun.reflect.nativemethodaccessorimpl.invoke(nativemethodaccessorimpl)。java:62)在sun.reflect.delegatingmethodaccessorimpl.invoke(delegatingmethodaccessorimpl。java:43)在java.lang.reflect.method.invoke(方法。java:497)在org.apache.hadoop.io.retry.retryinvocationhandler.invokemethod(retryinvocationhandler。java:291)在org.apache.hadoop.io.retry.retryinvocationhandler.invoke(retryinvocationhandler。java:203)在org.apache.hadoop.io.retry.retryinvocationhandler.invoke(retryinvocationhandler。java:185)com.sun.proxy.$proxy15.delete(未知源代码)org.apache.hadoop.hdfs.dfsclient.delete(dfsclient。java:2094)在org.apache.hadoop.hdfs.distributedfilesystem$17.docall(distributedfilesystem。java:815)在org.apache.hadoop.hdfs.distributedfilesystem$17.docall(distributedfilesystem。java:811)在org.apache.hadoop.fs.filesystemlinkresolver.resolve(filesystemlinkresolver。java:81)在org.apache.hadoop.hdfs.distributedfilesystem.delete(distributedfilesystem。java:811)在org.apache.sqoop.util.fileuploader.uploadfilestodfs(fileuploader。java:58)在org.apache.sqoop.mapreduce.db.netezza.netezzaexternaltableexportmapper.run(netezzaexternaltableexportmapper。java:249)在org.apache.hadoop.mapred.maptask.runnewmapper(maptask。java:787)在org.apache.hadoop.mapred.maptask.run(maptask。java:341)在org.apache.hadoop.mapred.yarnchild$2.run(yarnchild。java:170)在javax.security.auth.subject.doas(主题)中的java.security.accesscontroller.doprivileged(本机方法)。java:422)在org.apache.hadoop.security.usergroupinformation.doas(usergroupinformation。java:1865)在org.apache.hadoop.mapred.yarnchild.main(yarnchild。java:164)原因:java.lang.interruptedexception atjava.util.concurrent.futuretask.awaitdone(futuretask。java:404)在java.util.concurrent.futuretask.get(futuretask。java:191)在org.apache.hadoop.ipc.client$connection.sendrpcrequest(client。java:1094)在org.apache.hadoop.ipc.client.call(client。java:1457) ... 26个以上
暂无答案!
目前还没有任何答案,快来回答吧!