HDFS客户端的权限错误:Permission denied
错误的详细描述如下:
org.apache.hadoop.security.AccessControlException: org.apache.hadoop.security .AccessControlException: Permission denied: user=Administrator, access=WRITE, inode="hadoop": hadoop:supergroup:rwxr-xr-x
解决办法
最终,总结下来解决办法大概有三种:
1、在系统的环境变量或java JVM变量里面添加HADOOP_USER_NAME,这个值具体等于多少看自己的情况,以后会运行HADOOP上的Linux的用户名。
2、将当前系统的帐号修改为hadoop
3、使用HDFS的命令行接口修改相应目录的权限,hadoop fs -chmod 777 /user,后面的/user是要上传文件的路径,不同的情况可能不一样,比如要上传的文件路径为hdfs://namenode/user/xxx.doc,则这样的修改可以,如果要上传的文件路径为hdfs://namenode/java/xxx.doc,则要修改的为hadoop fs -chmod 777 /java或者hadoop fs -chmod 777 /,java的那个需要先在HDFS里面建立Java目录,后面的这个是为根目录调整权限。
参考链接:Java连接hdfs指定用户名;
相关推荐
大数据-java操作HDFS的增、删、查等基本操作,maven项目
java 读写 hdfs文件系统例子(包括权限设置);java 读写 hdfs文件系统例子(包括权限设置)java 读写 hdfs文件系统例子(包括权限设置)
java操作hdfs 修改参数配置与本机一致; 有五个示例文档,有用到springboot, Big data projects using HDFS and MapReduce
java操作Hadoop源码之HDFS Java API操作-创建目录,附带所需全部jar包,欢迎下载学习。
java操作hdfs文件系统的完整依赖包,如果是tomcat服务器,解压后全部放在web工程的lib文件夹下即可.
Java管理hdfs文件和文件夹的工具类,最近版本hadoop2.4。
主要介绍了Java API连接HDFS HA和调用MapReduce jar包,需要的朋友可以参考下
hdfs dfs -test -e 文件或目录名 第三步,查看检测结果: echo $? 若输出结果为0,则说明文件或目录存在,若为1,则说明文件或目录不存在。 二、Java代码实现 import org.apache.hadoop.conf.Configuration; ...
java操纵hdfs 实现文件的增删改读取
Java操作HDFS.md
hdfs 上传 下载 客户端 代码 java
大数据技术基础实验报告-调用Java API实现HDFS操作
JAVA-HDFS整合指南 内含代码 文档 jar包 以及详尽到每一步的文档
java-Hdfs体系结构与基本概念
阐述了如何利用利用javaAPI访问HDFS的文件
第七节、使用Java操作HDFS第七节、使用Java操作HDFS一、准备jar包二、解决环境冲突问题1. 在windows下添加HADOOP_HOME系统环境变
本篇文章主要介绍了JAVA操作HDFS案例的简单实现,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
javaAPI操作HDFS,测试可用 window环境需要下载hadoop客户端
java对大数据HDFS文件操作jar包和maven2个项目,有jar包,有依赖,2个项目呦
java操作Hbase之从Hbase中读取数据写入hdfs中源码,附带全部所需jar包,欢迎下载学习。