使用flink-s3-fs-hadoop时出现不满意的链接错误

0lvr5msh  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(385)

我有经验 UnsatisfiedLinkError 当我尝试使用 flink-s3-fs-hadoop 沉沦 s3 在我的本地windows计算机中。
我在google上搜索并尝试了几种解决方案,比如下载 hadoop.dll 以及 winutils.exe ,设置 HADOOP_HOME 以及 PATH 环境变量,复制 hadoop.dllC:\Windows\System32 ,但都没用。
我还试着把 hadoop 通过使用 System.loadlibrary("hadoop") ,它成功了,但是错误仍然发生,我还缺少什么额外的步骤吗?
这是我的代码(第2行和第3行只是试图调试,它将在第2行成功,但抛出 UnSatisfiedLink 第3行例外):

public static void main(String[] args) throws Exception { 
    System.loadLibrary("hadoop"); 
    NativeIO.Windows.access(null, NativeIO.Windows.AccessRight.ACCESS_READ); 
    StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); 
    env.setParallelism(1); 
    DataStream<String> ds = env.readTextFile("s3://fts-test/test/input.csv"); 
    ds.print(); 
    ds.writeAsText("s3://fts-test/test/output.csv"); 
    env.execute(); 
}

顺便说一下,我用的是 Window 7 64 bit , flink 1.5 .

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题