`

读取hadoop文件内容

 
阅读更多

 

 

import java.net.URI;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class ReadHdfsFile {

	public static String getHdfsFileContent(String hdfsFile) throws Exception {
		
		Configuration conf = new Configuration();
		String content = "";	
		FileSystem fs = FileSystem.get(new URI(hdfsFile), conf);
		Path path = new Path(hdfsFile);
		if(fs.exists(path)){
			FSDataInputStream  fis = fs.open(path); // 打开文件流
			FileStatus  stat = fs.getFileStatus(path); // 读取文件状态
			byte[] buf = new byte[Integer.parseInt(String.valueOf(stat.getLen()))] ; 
			fis.readFully(0, buf);
			fis.close();// 文件流关闭
			fs.close();//文件操作系统关闭
			content = new String(buf);
		}
		return content;
	}
	
	
	public static void main(String[] args) {
		
		try {
			System.out.println(getHdfsFileContent("/log_data/act"));
		} catch (Exception e) {
			// TODO Auto-generated catch block
			e.printStackTrace();
		}
	}
}

 

分享到:
评论

相关推荐

    Hadoop分布式文件系统的文件读写

    在Hadoop的分布式文件系统下,对文件的读写和列出文件的相关属性和目录中的内容

    hadoop 读写文件流程详解

    在hadoop中,有三大法宝——HDFS,MapReduce,Hbase,但是无论是MapReduce,Hbase还是hadoop中的其他组件如:Hive等他们要处理的...可见HDFS可以说是hadoop存储的基础和核心,因此对HDFS的文件读写操作显得十分重要。

    hadoop2 文件读写原理

    这个文档讲述了hadoop2的文件读写原理,不过是英文的,英文不好的同学下载的时候,要谨慎了

    02_Hadoop 分布式文件系统(HDFS).docx

    ■ HDFS 提供什么功能 ■ HDFS 如何读取和写入文件 ■ NameNode 如何使用内存 ■ Hadoop 如何提供文件安全性 ■ 如何使用NameNode Web UI ■ 如何使用Hadoop 文件Shell

    hadoop/bin目录文件,含hadoop.dll + winutils.exe

    用于win7开发、调试下读取HDFS文件(包括hive读取),hadoop2.6.3

    一步一步跟我学习hadoop(6)----hadoop利用FileSystem API 执行hadoop文件读写操作

    hadoop filesystem api常见使用说明

    Java 读取Hadoop文件系统文件

    放一个hello的文件到Hadoop 文件系统 根目录:  [root@hadoop local]# touch hello  [root@hadoop local]# vi hello  [root@hadoop local]# hadoop fs -put hello /  代码:   package hadoop....

    java通过api方式操作Hadoop

    2.在hadoop中新建文件,并写入 3.删除hadoop上的文件 4.读取文件 5.文件修改时间 二.目录操作 1.在hadoop上创建目录 2.删除目录 3.读取某个目录下的所有文件 三.hdfs信息 1.查找某个文件在HDFS集群中位置 2.获取HDFS...

    eclipse+maven+hadoop+文件增删改查

    eclipse+maven+hadoop+文件增删改查,非常实用的例子,供各位学习。

    Hadoop分布式文件系统

    引言 Hadoop分布式文件系统(HDFS)被设计成...HDFS放宽了一部分POSIX约束,来实现流式读取文件系统数据的目的。HDFS在最开始是作为Apache Nutch搜索引擎项目的基础架构而开发的。HDFS是Apache Hadoop Core项目的一部分。

    hadoop Java接口 文件操作类

    基于hadoop Java接口 文件操作类,对hadoop服务进行增删改查等系列操作,非常实用

    高可用性的HDFS:Hadoop分布式文件系统深度实践

    4.5.6 NameNode宕机读写测试 第5章 AvatarNode运行机制 5.1 方案说明 5.1.1 系统架构 5.1.2 思路分析 5.1.3 性能数据 5.2 元数据分析 5.2.1 类FSNamesystem 5.2.2 类FSDirectory 5.2.3 AvatarNode的磁盘元数据文件 ...

    一种Hadoop小文件存储和读取的方法.

    然而,HDFS 设计的初衷是存储超大文件,对于海量小文件,由于 NameNode 内存开销等问题,其存储和读取性能并不理想。提出一种基于小文件合并的方法 HIFM( Hierarchy Index File Merging) ,综合考虑小文件之间的...

    Hadoop大数据平台构建、HDFS配置、启动与验证教学课件.pptx

    分发Hadoop文件 任务五 NameNode格式化 任务六 启动HDFS集群 任务七 验证HDFS集群 任务一 Hadoop安装及JDK环境变量配置 所有节点,使用 root 用户登录,修改 /opt 的权限 # chmod 777 /opt --修改 /opt 文件夹的权限...

    Hadoop从入门到上手企业开发

    039 HDFS文件系统读写流程及HDFS API两种方式读取文件 040 详解HDFS API之FileSystem方式基本操作二 041 讲解分析Configuration和FileSystem类源代码 042 引出HDFS实际应用场景之合并文件和使用getmerge命令并查看...

    hadoop的经典讲义

    必须通过hadoop fs 命令来读取。支持分布式。 MapReduce : 大型分布式数据处理模型,是Google MapReduce的开源实现。 •合并/计算模型。 其他相关组成: •Hbase:结构化分部式数据库。BigTable的开源实现。 •...

    基于 Hadoop 的海量小文件处理技术研究

    基于 Hadoop 的海量小文件处理技术研究 ,主要工作包括两个方面: 1) 基于多层索引的小文件读写策略的研究与实现。本文根据 Hadoop 平台现 有小文件处理的思想,对海量小文件进行合并然后建立索引。其中索引结构的设...

    图像文件转换为MapReduce可以读写的二进制文件代码Hadoop

    图像文件转换为MapReduce可以读写的二进制文件代码Hadoop的计算框架只能处理文本文件,对于图像数据不能直接处理,本代码可以实现将图像文件转换成Mapreduce可以读取的SequenceFile,其中包括单机写入和读取,以及...

    Hadoop权威指南 第二版(中文版)

     Hadoop文件系统  接口  Java接口  从Hadoop URL中读取数据  通过FileSystem API读取数据  写入数据  目录  查询文件系统  删除数据  数据流  文件读取剖析  文件写入剖析  一致模型  通过 distcp并行...

    java 从hadoop hdfs读取文件 进行groupby并显示为条形图

    从hadoop hdfs中读取数据,进行groupby 显示统计结果count、avg、max,用文字和柱状图两种图形界面表示

Global site tag (gtag.js) - Google Analytics