1、通过命令tar xvf hbase-0.90.4.tar.gz解压到当前文件夹
2、 修改HBase的配置文件:
编辑所有机器上的hbase安装目录conf目录下的hbase-site.xml、hbase-default.xml、hbase-env.sh几个文件,当然可以先配置主机的然后通过scp命令拷贝到虚拟机上,但是可能要做相应的路径修改。
a. Hbase-site.xml:
编辑这个文件要注意hbase.rootdir参数,这个参数的前面部分必须与你的hadoop集群里的core-site.xml文件里fs.default.name保持一致才可以。在就是hbase该项不识别机器的IP,只能使用机器的hostname才可以。
另外Hbase.zookeeper.quorum个数必须为奇数。
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://a004:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master</name>
<value>a004</value>
</property>
#这两个选项的value值可以选择使用ip地址代替hostname,效果一样
<property>
<name>hbase.zookeeper.quorum</name>
<value>a004,p001,p002</value>
</property>
#下面两个可以设置也可以不设置,都是有默认值的
<property>
<name>zookeeper.session.timeout</name>
<value>60000</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
</configuration>
b. Hbase-default.xml:
这个配置文件只需修改前面的hbase.rootdir和hbase.cluster.distributed这两项,之前的版本这个文件是在conf目录下,但是在0.90.4版本中是在两个文件夹中存在,docs和src/main/resources中,不设置也应该没有问题。
<property>
<name>hbase.rootdir</name>
<value>hdfs://a004:9000/hbase</value>
</property>
<property>
<name>hbase.master.port</name>
<value>60000</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>false</value>
</property>
c. Hbase-env.sh:
添加如下环境变量
export JAVA_HOME=/home/username/jdk1.6.0_24
export HBASE_HOME=/home/username/hbase-0.90.4
export PATH=$PATH:/home/username/hbase-0.20.6/bin
export HBASE_MANAGES_ZK=true
export HADOOP_HOME=/home/username/hadoop-0.20.2
d. 修改regionservers文件:
将所有的DataNode节点的主机名称加进去就可以了
a004
p001
p002
3、把/home/username/hadoop/conf/hdfs-site.xml文件拷贝至hbase的conf文件夹下
4、删除/hbase/lib/hadoop-core-0.20-append-r1056497.jar
拷贝/hadoop-0.20.2-core.jar到/hbase-0.90.2/lib/
#这个jar包没有替换好像也能启动Hbase,具体可能要在操作中才会知道替换是否必要。
5、最后,把配置好的hbase,拷贝到其它节点 scp
6. 安装Zookeeper(详细可见zookeeper文档)
在所有机器上安装Zookeeper
tar zxvf zookeeper-3.3.3.tar.gz
添加环境变量
export ZOOKEEPER_INSTALL=/home/username/zookeeper-3.3.3
export PATH=$PATH:$ZOOKEEPER_INSTALL/bin
然后修改zookeeper安装目录下的conf下的zoo_sample.cfg,将其重命名为zoo.cfg。
配置集群使用需要在文件中加上:
initLimit=10
syncLimit=5
在文件最后将所有的zookeeper服务添加上,如下:
server.1=a004:2888:3888
server.2=p001:2888:3888
server.3=p002:2888:3888
验证安装:
1.首先启动hadoop集群:jps查看namenode和datanode的服务是否正常启动
2.启动hbase:同样通过jps查看,注意在master(即HMater)节点上有HMaster和HRegionServer、HQuorumPeer三个服务项(后两者是因为将namenode也作为了一个HRegionServers),在datanode(即HRegionServer)中查看需要启动的是HQuorumPeer和HRegionServer
3.整个集群正常启动后,我们可以通过hbase 的命令行管理界面看看是否正常
hbase shell这个命令是进入命令行管理模式,然后可以通过list可以列举你当前数据库的名称,如果失败会有java错误抛出,
我们也可以通过WEB页面来管理查看HBase数据库http://localhost:60010/master.jsp
- 浏览: 151931 次
最新评论
-
cldtc:
您好,想请教一个问题,using python脚本的时候怎样打 ...
Hadoop Hive sql语法详解5--HiveQL与SQL区别
相关推荐
大数据技术基础实验报告-HBase安装配置和应用实践
HBase安装配置与实践: 1. HBase安装 1.2 将解压的文件名hbase-1.0.1.1改为hbase,以方便使用 1.3 配置环境变量 1.4添加HBase权限 1.5查看HBase版本,确定hbase安装成功 2. HBase配置 2.1伪分布式模式配置 接...
zookeeper及hbase安装配置,安装时先检查zookeeper,hbase是否与hadoop版本对应
指导手册06:HBase安装部署 hbase配置文件
Hadoop和Hbase安装使用教程
Zookeeper和Hbase安装总结手册.
大数据实验Hbase安装部署和使用javaapi调用,详细且成功率高,纯自己手写的,hadoop和hbase版本是采用林子雨老师教材中的,自己在此教程上改良,引入先安装zookeeper方法避免诸多问题产生。
本资源为hbase的安装和使用,内含hbase安装工具包,hbase的安装说明,hbase的使用说明 。
hadoop-2.52-hbase-0.14-hadoop2 ha高可用安装,hbase动态添加删除节点,hbase集群正常状态及启动,hbase 问题汇总
文档是我自己一步步完成实验写成的,给初学大数据的朋友共享一下希望能有所帮助
NULL 博文链接:https://username2.iteye.com/blog/2106533
Hadoop Hbase 完美安装教程,有图,清晰明了!更新到最新版!
Linux下,基于Hadoop集群的Zookeeper、Hbase的安装及配置指导文档。 HBase作为Hadoop生态系统的一部分,是基于hadoop集群的HDFS之上的分布式数据库,HDFS为HBase提供了高可靠的底层存储支持和数据的持久化;hadoop...
在本地模式下,hbase只需要安装JDK就可以了。 若使用HDFS文件系统模式,除了JDK,还需要安装hadoop(HDFS是hadoop的旗舰级文件系统,是hadoop项目的核心子项目,安装hadoop会带有hdfs),本版本hbase依赖安装的hadoop...
Hbase安装详细文档,有配置,有说明,有截图,非常详细
来自一位老学姐的Hbase安装详细教程(清华大学镜像下)及基本操作,希望能带给你们些许帮助。主要包含Hbase的下载过程及其遇到的小问题,后续会继续完善该文档!
hadoop hive hbase安装过程
python3 使用 thrift 操作hbase 安装hbase-thirft后有一个Hbase报错 使用这个修改完成的Hbase类替换掉原来的Hbase类问题全部解决 主要是因为python版本兼容性带来的问题
hbase安装lzo压缩包的编译文件master