方法1::由于0.20.203.0以后的版本的权限认证引起的,只有去掉才行
修改hadoop源代码,去除权限认证,修改FileUtil.java的checkReturnValue方法,如下:
private staticvoid checkReturnValue(boolean rv, File p,
FsPermissionpermission
) throws IOException {
// if (!rv){
// throw newIOException("Failed to set permissions of path: " + p +
// " to" +
//String.format("%04o", permission.toShort()));
// }
}
方法2:改为linux环境 不用cywin
方法3:换成0.20以前的版本
方法4:hadoop dfs -chmod -R 777 报错目录
本文介绍了当使用Hadoop 0.20.203.0及之后版本遇到因权限认证导致的问题时的四种解决方案,包括修改源代码、更换环境、回退版本等方法。
1944

被折叠的 条评论
为什么被折叠?



