我有经验 UnsatisfiedLinkError
当我尝试使用 flink-s3-fs-hadoop
沉沦 s3
在我的本地windows计算机中。
我在google上搜索并尝试了几种解决方案,比如下载 hadoop.dll
以及 winutils.exe
,设置 HADOOP_HOME
以及 PATH
环境变量,复制 hadoop.dll
至 C:\Windows\System32
,但都没用。
我还试着把 hadoop
通过使用 System.loadlibrary("hadoop")
,它成功了,但是错误仍然发生,我还缺少什么额外的步骤吗?
这是我的代码(第2行和第3行只是试图调试,它将在第2行成功,但抛出 UnSatisfiedLink
第3行例外):
public static void main(String[] args) throws Exception {
System.loadLibrary("hadoop");
NativeIO.Windows.access(null, NativeIO.Windows.AccessRight.ACCESS_READ);
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setParallelism(1);
DataStream<String> ds = env.readTextFile("s3://fts-test/test/input.csv");
ds.print();
ds.writeAsText("s3://fts-test/test/output.csv");
env.execute();
}
顺便说一下,我用的是 Window 7 64 bit
, flink 1.5
.
暂无答案!
目前还没有任何答案,快来回答吧!