在window Eclipse中运行Hadoop和Spark程序时会遇见如下异常错误java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSums(IILjava/nio/ByteBuffer;ILjava/nio/ByteBuffer;IILjava/lang/String;JZ)V
具体解决方案,参考了stackoverflow: Hadoop error on Windows : java.lang.UnsatisfiedLinkError
这是由于$HADOOP_HOME/lib/native源码二进制包下,文件默认是32位,而在window下运行需要64位格式,因此需要在网上寻找网友已编译好的对应版本的64位native包,或者自己自行编译Hadoop源码,也可以得到64位native包。
在本地程序中替换之后,还需要在程序运行时,指定jvm参数:-Djava.library.path=$HADOOP_HOME/lib/native,详见上面的stackoverflow解决方案
碰到相同问题的朋友可以参考,另外如碰到其他问题,也可以在下方评论区贴出,我会及时回复你~
转载请注明出处:http://blog.youkuaiyun.com/coder__cs/article/details/79128222
本文出自【elon33的博客】
本文解决在Windows环境下使用Hadoop遇到的java.lang.UnsatisfiedLinkError错误。问题源于Hadoop默认32位的native库不适用于64位系统。解决方案包括替换为64位版本的native库,并在程序运行时设置-Djava.library.path参数指向$HADOOP_HOME/lib/native。
4518

被折叠的 条评论
为什么被折叠?



