util.NativeCrc32.nativeComputeChunkedSumsByteArray

图片说明我是在centos操作系统上运行hadoop集群报这个错,Exception in thread "main" java.lang.UnsatisfiedLinkError:
org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray(II[BI[BIILjava/lang/String;JZ)V ; 我发现凡是运行的程序需要依赖hadoop集群都会报这个错,之前是好好的,现在就报这个错了 ,网上查了好多都是针对windows的,说复制hadoop.dll啥的,没用啊,我这个问题是出现在linux系统上的呀,怎么解决,难道又要我重新搭建环境?

4个回答

已经解决,复制的hadoop源码到 lib-->native 中不对版导致的!

找了下资料,也没有找到相关解决办法,建议重新搭建环境吧,

图片说明
能所明白点linux 下的解决方案 不

这是个巨大的坑,上面有人只说版本错了,没说是哪个版本错了。
我linux装的是hadoop2.5.0,然后我把native2.5的包放进去了,问题依旧。最后是**把native2.6的包解压到native目录下重起hdfs就可以了**
,搞一晚上

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
立即提问
相关内容推荐