`

hbase配置手册

 
阅读更多
Hbase配置手册
1)下载hbase
解压到每台服务器的/data/soft
解压
Java代码 复制代码 收藏代码
  1. root@master:/data/soft# tar zxvf hbase-0.90.0.tar.gz  

建立软连
Java代码 复制代码 收藏代码
  1. root@master:/data/soft# ln -s hbase-0.90.0 hbase  


2)配置hbase

前提是安装完成hadoop,默认在namenode上进行
1.修改conf/hbase-env.sh,添加jdk支持
Java代码 复制代码 收藏代码
  1. export JAVA_HOME=/usr/local/jdk   
  2. export HBASE_MANAGES_ZK=true  
  3. export HBASE_LOG_DIR=/data/logs/hbase  


2. 修改conf/hbase-site.xml,

 
Xml代码 复制代码 收藏代码
  1. <property>  
  2.   <name>hbase.rootdir</name>  
  3.   <value>hdfs://master:9000/hbase</value>  
  4. </property>  
  5. <property>  
  6.   <name>hbase.cluster.distributed</name>  
  7.   <value>true</value>  
  8. </property>  
  9. <property>    
  10.   <name>hbase.master</name>    
  11.   <value>hdfs://master:60000</value>    
  12. </property>    
  13.   
  14. <property>       
  15.       <name>hbase.zookeeper.quorum</name>       
  16.       <value>slave-001,slave-002,slave-003</value>       
  17.       <description>Comma separated list of servers in the ZooKeeper Quorum.    For example, "host1.mydomain.com,host2.mydomain.com,host3.mydomain.com".    By default this is set to localhost for local and pseudo-distributed modes    of operation. For a fully-distributed setup, this should be set to a full    list of ZooKeeper quorum servers. If HBASE_MANAGES_ZK is set in hbase-env.sh    this is the list of servers which we will start/stop ZooKeeper on.    </description>     
  18. </property>  
  19. <property>       
  20.       <name>hbase.zookeeper.property.dataDir</name>       
  21.       <value>/data/work/zookeeper</value>       
  22.       <description>Property from ZooKeeper's config zoo.cfg.    The directory where the snapshot is stored.    </description>     
  23. </property>  

hbase.rootdir设置hbase在hdfs上的目录,主机名为hdfs的namenode节点所在的主机
hbase.cluster.distributed设置为true,表明是完全分布式的hbase集群
hbase.master设置hbase的master主机名和端口
hbase.zookeeper.quorum设置zookeeper的主机,建议使用单数


3.修改hadoop的目录下的conf/hdfs-site.xml
Xml代码 复制代码 收藏代码
  1. <property>  
  2.         <name>dfs.datanode.max.xcievers</name>  
  3.         <value>4096</value>  
  4.       </property>  


4.复制hadoop的jar到hbase的lib目录下,删除原来的lib下的hadoop.jar
原来的hadoop-core-0.20-append-r1056497.jar
新的hadoop-0.20.2-core.jar

5.修改conf/regionservers
将所有的datanode添加到这个文件,类似与hadoop中slaves文件

6.拷贝hbase到所有的节点

3)启动hbase
Java代码 复制代码 收藏代码
  1. $ ./bin/start-hbase.sh  


4)hbase自带的web界面
http://master:60010/


5)测试
1.登录hbase客户端
Java代码 复制代码 收藏代码
  1. ./bin/hbase shell  

2.新建数据表,并插入3条记录
Java代码 复制代码 收藏代码
  1. hbase(main):003:0> create 'test''cf'  
  2. 0 row(s) in 1.2200 seconds   
  3. hbase(main):003:0> list 'table'  
  4. test   
  5. 1 row(s) in 0.0550 seconds   
  6. hbase(main):004:0> put 'test''row1''cf:a''value1'  
  7. 0 row(s) in 0.0560 seconds   
  8. hbase(main):005:0> put 'test''row2''cf:b''value2'  
  9. 0 row(s) in 0.0370 seconds   
  10. hbase(main):006:0> put 'test''row3''cf:c''value3'  
  11. 0 row(s) in 0.0450 seconds  

3.查看插入的数据
Java代码 复制代码 收藏代码
  1. hbase(main):007:0> scan 'test'  
  2. ROW        COLUMN+CELL   
  3. row1       column=cf:a, timestamp=1288380727188, value=value1   
  4. row2       column=cf:b, timestamp=1288380738440, value=value2   
  5. row3       column=cf:c, timestamp=1288380747365, value=value3   
  6. 3 row(s) in 0.0590 seconds  

4.读取单条记录
Java代码 复制代码 收藏代码
  1. hbase(main):008:0> get 'test''row1'  
  2. COLUMN      CELL   
  3. cf:a        timestamp=1288380727188, value=value1   
  4. 1 row(s) in 0.0400 seconds  

5.停用并删除数据表
Java代码 复制代码 收藏代码
  1. hbase(main):012:0> disable 'test'  
  2. 0 row(s) in 1.0930 seconds   
  3. hbase(main):013:0> drop 'test'  
  4. 0 row(s) in 0.0770 seconds   

6.退出
Java代码 复制代码 收藏代码
  1. hbase(main):014:0> exit  

<script type="text/javascript"><!-- google_ad_client = "pub-1076724771190722"; /* JE个人博客468x60 */ google_ad_slot = "5506163105"; google_ad_width = 468; google_ad_height = 60; //--> </script><script src="http://pagead2.googlesyndication.com/pagead/show_ads.js" type="text/javascript"> </script><script src="http://pagead2.googlesyndication.com/pagead/js/r20110622/r20110627/show_ads_impl.js"></script><script src="http://googleads.g.doubleclick.net/pagead/test_domain.js"></script><script src="http://pagead2.googlesyndication.com/pagead/render_ads.js"></script><script></script>

分享到:
评论

相关推荐

    指导手册06:HBase安装部署 hbase配置文件

    指导手册06:HBase安装部署 hbase配置文件

    Hadoop2.4、Hbase0.98、Hive集群安装配置手册

    Hadoop2.4、Hbase0.98、Hive集群安装配置手册

    云计算hadoop伪集群+hbase安装配置手册(伪集群)

    单位用的云计算hadoop伪集群+hbase安装配置手册(伪集群),工业级,已有成果项目

    虚拟机环境下Hadoop2.7.1+HBase1.3.5安装配置手册 .docx

    描述了centOS6.5(虚拟机)环境下,hadoop2.7.1+hbase1.3.5版本的安装配置过程,以及个人在安装过程中遇到的问题与总结

    HBase MOB user guide

    HBase MOB 用户手册: 1、启用HBase MOB 2、HBase MOB配置 3、.....

    hadoop和hbase安装操作手册

    本资源是作者参加云计算培训课程后整理的hadoop和hbase文件的配置。里面有详细的hadoop和habse的安装步骤。。

    hbase性能调优手册

    本文主要是从HBase安装配置和应用程序设计与开发的角度,总结几种常用的性能优化方法。

    hadoop2.7分布式完全安装配置手册

    hadoop2.7分布式完全安装配置手册,含hbase1.2安装配置,图文并茂,一看就会。

    大数据Hadoop常用组建安装配置手册

    大数据Hadoop常用组建安装配置手册、包含了Hadoop、Hive、HBase、Sqoop、Spark、Storm、Kafka等常用分布系统、查询、计算、分析组件的安装、配置详细步骤,共73页,大数据入门安装利器。

    某大数据平台开发及环境配置手册(知识研究或个人学习)

    2. 数据存储:将采集到的数据存储在分布式文件系统或数据库中,如HDFS、HBase、MySQL等。 3. 数据处理:对存储在大数据平台上的数据进行清洗、转换、聚合等操作,生成可供分析的数据。 4. 数据分析:通过各种算法和...

    hawq 详细安装手册

    hawq 详细安装手册 hawq 详细安装手册 hawq 详细安装手册

    Hadoop安装手册_Hadoop2.0.pdf

    hadoop2.0版本安装手册,包含hadoop、hive、hbase、mahout、sqoop、spark、storm、整个体系的安装配置

    大数据集群安装手册总册

    大数据集群安装手册总册(测试环境版),这些事我花了大半个月全手工配置安装的,里面涉及的集群安装有solr,hbase,spark,hadoop,zookeep,等步骤,对于中间安装有不了解的可以加QQ hbase集群安装 hadoop集群安装 spark...

    大数据平台搭建手册

    JDK、Hadoop、Hive、Spark、Hbase等系统集群安装环境配置、详细安装步骤、及配置文件修改。

    Hadoop-2.8.0分布式安装手册

     本文的目的是为当前最新版本的Hadoop 2.8.0提供最为详细的安装说明,以帮助减少安装过程中遇到的困难,并对一些错误原因进行说明,hdfs配置使用基于QJM(Quorum Journal Manager)的HA。本文的安装只涉及了hadoop-...

    hadoop实验手册

    本手册提供了hadoop,hive,hbase的详细安装和使用说明,大部分参数都根据实际情况的需要做了调整。另外文章中还提供了FairScheduler,CapacityTaskScheduler,机架感知的配置,网上很难找到,(fair/capacity ...

    cdh6.1.0搭建手册.pdf

    CDH是Cloudera公司推出的基于稳定版本的...同时Cloudera中提供的各种组件能让用户在一个可视化的UI界面中方便地管理,配置和监控Hadoop以及其它所有相关组件,并有一定的容错容灾处理;还有一系列实用的组件等等。

    Zookeeper 技术参考手册.docx

    ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、...

    Hadoop2.2.0集群安装

    本手册主要整理了Hadoop2.2.0的安装,包括QJM实现HA的详细配置,以及Hdfs-site的配置详解。 不包括Hbase、Hive安装

    CDH集群部署手册(外)

    大数据的存储,如果你想简单便捷的安装配置使用hadoop,hbase,hive等请参考该文档。文档中详细的记录了安装过程,并且简单实用。

Global site tag (gtag.js) - Google Analytics