`
usezhou
  • 浏览: 12498 次
  • 性别: Icon_minigender_1
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论

Hbase通过 Mapreduce 写入数据到Mysql

 
阅读更多

我们可能会有一个疑问,hadoop是一种分布式存储和分布式计算的一个开源项目,而Mapreduce 也是基于此的一个分布式计算的模型,而基于分布式存储的列存储数据库Hbase应该是我们要讨论的话题,为什么会说到Mysql

其实Hbase 存储的数据时一些量大简单而有规则的数据,但关系型数据库也有他的优势,那就是提供了友好的方面我们操作的用户接口,我们可以实现简单的查询。并且数据本身并不大,而我们又需要对此数据进行各种复杂的分析和查询,那关系型数据库则帮我们实现。

从Hbase map出数据如何写入Mysql 从网上查估计也能查询到,但是可能不太友好,我做了一个简单的例子,贴出来供大家参考,希望对大家有些帮助。

习惯从main 方法谈起 看代码:

public static void main(String[] args) throws Exception {
Configuration conf = HBaseConfiguration.create();
//在此我用到了 旧的API ,因为我从资料上找不出新的API中有支持DBOutputFormat 的接口或者方法

//希望大家 如果了解这方面的 给我提出意见 我也了解一下新的API中如何实现此功能

JobConf job = new JobConf(conf,CopyHbaseData2Mysql.class);
job.setJarByClass(CopyHbaseData2Mysql.class);
//设定Job 输入类型为 TableInputFormat.class

job.setInputFormat(TableInputFormat.class);

//旧的API 没有 设置输入表的地方,如果看过Hadoop TableInputFormat 的源码 就可以看到下面两个参数 可以设定 输入表 和查询hbase 的columns

job.set("mapred.input.dir", "hbase_table");
job.set("hbase.mapred.tablecolumns", "info:column");//查询column

//下面两个方法是map的输入的key和value 类型
job.setMapOutputKeyClass(ImmutableBytesWritable.class);
job.setMapOutputValueClass(ImmutableBytesWritable.class);
//设定 输入类型为 DBOutputFormat.class

job.setOutputFormat(DBOutputFormat.class);
// 下面是配置 mysql 驱动以及 用户名密码

//此时一定要注意不论是编译还是 打包,都必须把mysql的驱动加入的环境变量中

//此处还要注意的是 192.168.10.10如果是在本机跑,一定要注意你的mysql 用户是否支持远程访问,不然 会拒绝连接
DBConfiguration.configureDB(job, "com.mysql.jdbc.Driver", "jdbc:mysql://192.168.10.10/test", "username", "password");

//下面是 输入表以及相应字段的设定
String[] fields = {"id","username"};
DBOutputFormat.setOutput(job, "user_info", fields);

//设定Map和Reduce
job.setMapperClass(MyMapper.class);
job.setReducerClass(MyReducer.class);

//run
JobClient.runJob(job);

}

其实写到这基本上就把具体的流程全部写出来了,候选的map 和reduce 根据大家相关的业务大家自己组织,但是还有一个重要的概念,此处的

我们的输入 为 :DBWritable 为此类为一个接口,并没有实现,所以我们要使用的时候必须 实现这个接口,去实现自己的 Writable类

先不做介绍了。

后续我会把实现DBWritable 的类也贴出来,如果认为有需要的话

贴出来 欢迎大家板砖,本人也是学习没多久,希望大家踊跃提意见,也好提高自己

分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics