`
liyonghui160com
  • 浏览: 761404 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

从hbase加载数据到hdfs

 
阅读更多

 

    package example2;  
      
    import java.io.IOException;  
      
    import org.apache.hadoop.conf.Configuration;  
    import org.apache.hadoop.fs.Path;  
    import org.apache.hadoop.hbase.HBaseConfiguration;  
    import org.apache.hadoop.hbase.KeyValue;  
    import org.apache.hadoop.hbase.client.Result;  
    import org.apache.hadoop.hbase.client.Scan;  
    import org.apache.hadoop.hbase.io.ImmutableBytesWritable;  
    import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil;  
    import org.apache.hadoop.hbase.mapreduce.TableMapper;  
    import org.apache.hadoop.hbase.util.Bytes;  
    import org.apache.hadoop.io.IntWritable;  
    import org.apache.hadoop.io.Text;  
    import org.apache.hadoop.mapreduce.Job;  
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;  
    import org.apache.hadoop.util.GenericOptionsParser;  
      
    //Administrator  
    public class FromHBaseToHDFSExample {  
          
        public static class HBaseMapper extends TableMapper<IntWritable, Text>{  
      
            @Override  
            protected void map(ImmutableBytesWritable key, Result value,  
                    Context context) throws IOException, InterruptedException {  
                 for(KeyValue kv:value.raw()){  
                     context.write(null, new Text(Bytes.toString(kv.getValue())));  
                 }  
            }  
              
        }  
      
        /** 
         * @param args 
         */  
        public static void main(String[] args)throws Exception {  
            Configuration conf=HBaseConfiguration.create();  
            String []argArray=new GenericOptionsParser(conf, args).getRemainingArgs();  
            if(argArray.length!=1){  
                System.exit(1);  
            }  
            Job job=new Job(conf,"import hbase to hdfs");  
            job.setJarByClass(FromHBaseToHDFSExample.class);  
            TableMapReduceUtil.initTableMapperJob("testtable", new Scan(), HBaseMapper.class, IntWritable.class, Text.class, job);  
            FileOutputFormat.setOutputPath(job, new Path(argArray[0]));  
            job.setNumReduceTasks(0);  
            System.exit(job.waitForCompletion(true) ? 0 : 1);  
              
      
        }  
      
    } 

 

分享到:
评论

相关推荐

    hbase-meta-repair-hbase-2.0.2.jar

    HBase 元数据修复工具包。 ①修改 jar 包中的application....②将core-site.xml、hdfs-site.xml添加到BOOT-INF/classes 下; ③开始修复 `java -jar -Drepair.tableName=表名 hbase-meta-repair-hbase-2.0.2.jar`

    Hbase+Spring boot实战分布式文件存储

    4-3 HBase优化策略三:读写优化策略 4-4 HBase协处理器简介 4-5 HBase实战:开发RegionObserver协处理器 4-6 HBase实战:HBase协处理器加载 第5章 容灾与监控 HBase容灾策略的简要介绍,配合命令演示如何对数据进行...

    HBase.docx

    5.添加数据 17 6.查询数据 18 7.删除数据 19 三、HBase的架构以及各个模块的功能 19 一:整体架构 20 1.体系结构 20 2.物理模型 20 3.存储体系 22 4.HDFS上的目录结构 22 5.整体结构 23 …………………… …………...

    HBase中Coprocessor的介绍以及实际业务场景中的使用.pdf

    毕业于浙江大学,现负责快手HBase的维护与研发,支持视频、特征、用户画像、IM等海量数据的存储;一直致力于大数据基础架构和hadoop生态的学习与研发;同时在hbase与hdfs的基础上,和团队一起研发了大数据存储与分析...

    Hadoop数据迁移--使用importtsv独步载入数据

    该工具是HBase提供的一个将HDFS数据转化为HBase数据库数据的一个工具。 其实现过程是,先将HDFS文件转复制并转化为HFile文件,然后将HFile移动并加载成为HBase的数据文件。

    Impala高性能探秘之HDFS数据访问

    Impala是一个高性能的OLAP引擎,Impala本身只是一个OLAP-SQL引擎,它访问的数据存储在第三方引擎中,第三方引擎包括HDFS、Hbase、kudu。对于HDFS上的数据,Impala支持多种文件格式,目前可以访问Parquet、TEXT、avro...

    大数据技术原理及应用课实验3 熟悉常用的HBase操作 林子雨实验

    一、实验目的 1. 理解HBase在Hadoop体系结构中的角色; 2. 熟练使用HBase操作...在本题中学习了列出HBase所有的表的相关信息,在终端打印出指定的表的所有记录数据,向已经创建好的表添加和删除指定的列族或列,清空

    Hadoop数据迁移--使用importtsv两步载入数据

    该工具是HBase提供的一个将HDFS数据转化为HBase数据库数据的一个工具。 其实现过程是,先将HDFS文件转复制并转化为HFile文件,然后将HFile移动并加载成为HBase的数据文件。

    MaxCompute数据开发实战—数据进入MaxCompute的N种方式.pdf

     离线数据上云(hdfs/hbase/文件/RDS/OSS)-&gt;MaxCompute数仓内部数据处理- &gt;ADS同步-&gt;应用查询及大屏离线展现等;  实时数据上云(日志)-&gt;DataHub-&gt;StreamCompute-&gt;RDS-&gt;大屏实时展现等。 实现一个实际的、...

    毕业设计-基于java+HBase实现的手机数据备份系统(短信、联系人、重要文件).zip

    毕业设计-基于java+HBase实现的手机数据备份系统(短信、联系人、重要文件).zip 基于HBase实现的手机数据备份系统,实现了手机关键信息的备份,如短信、联系人等。 包括服务器端(Server)和客户端(Client) Server...

    基于HBase实现的手机数据备份系统,实现了手机关键信息的备份,如短信、联系人等(毕业设计)

    基于HBase实现的手机数据备份系统,实现了手机关键信息的备份,如短信、联系人等。 包括服务器端(Server)和客户端(Client) Server运行环境:Hadoop+HBase+Tomcat Client运行环境: Eclipse+Android Server端介绍...

    基于spark streaming和kafka,hbase的日志统计分析系统.zip

    ETL模块:加载原始数据,清洗,加工,为模型训练模块 和 推荐模块 准备所需的各种数据。 模型训练模块:负责产生模型,以及寻找最佳的模型。 推荐模块:包含离线推荐和实时推荐,离线推荐负责把推荐结果存储到存储...

    基于spark+flume+kafka+hbase的实时日志处理分析系统.zip

    ETL模块:加载原始数据,清洗,加工,为模型训练模块 和 推荐模块 准备所需的各种数据。 模型训练模块:负责产生模型,以及寻找最佳的模型。 推荐模块:包含离线推荐和实时推荐,离线推荐负责把推荐结果存储到存储...

    BigGeoDataHBaseLoader:HBase矢量大数据快速入库工具

    2、将要处理的tsv格式数据存储到HDFS上 3、运行MapReduce程序生成HFile hadoop -jar BigGeoDataHbaseLoader.jar class路径 -Dhbase.zookeeper.quorum=zookeeper集群地址 输入空间数据tsv文件路径 输出HFile路径 空间...

    基于hbase + spark 实现常用推荐算法(主要用于精准广告投放和推荐系统).zip

    ETL模块:加载原始数据,清洗,加工,为模型训练模块 和 推荐模块 准备所需的各种数据。 模型训练模块:负责产生模型,以及寻找最佳的模型。 推荐模块:包含离线推荐和实时推荐,离线推荐负责把推荐结果存储到存储...

    HBaseBulkImportXML:如何将 XML 文件中的数据批量导入 HBase 表的示例

    使用 API 将数据放入工作中,但因为它必须遍历 HBase 的写入路径(即在将其刷新到 HFile 之前通过 WAL 和 memstore),它比您简单地绕过该批次并自己创建 HFiles 和将它们直接复制到 HDFS 中。 幸运的是 HBase 带有...

    分布式与云计算大作业.pdf

    1)、底层为 HDFS 存储,数据存储在 HBase分 布式数据库中,完成数据库和表的设计与创建。 2)实现对数据的添加、查询等基本的数据库操作。 3)使用 MapReduce 编程模型实现问题的计算和结果展示。

    论文研究-海量样本数据集中小文件的存取优化研究.pdf

    HDFS)在海量样本数据集存储方面存在内存占用多、读取效率低的问题,以及分布式数据库HBase在存储文件名重复度和类似度高时产生访问热点的问题,结合样本数据集的特点、类型,提出一种面向样本数据集存取优化方案,...

    hive-hbase-generatehfiles

    这种模式提供了一种方法,用于获取已存储在Hive中的数据,将其导出为HFile,并从这些HFile批量加载HBase表。概述HFile生成功能已添加到。 它添加了以下属性,然后Hive HBaseStorageHandler可以利用这些属性。 hive....

    基于spark及用户行为标签的日志大数据分析系统.zip

    ETL模块:加载原始数据,清洗,加工,为模型训练模块 和 推荐模块 准备所需的各种数据。 模型训练模块:负责产生模型,以及寻找最佳的模型。 推荐模块:包含离线推荐和实时推荐,离线推荐负责把推荐结果存储到存储...

Global site tag (gtag.js) - Google Analytics