论坛首页 Java企业应用论坛

Hadoop2.2三节点安装手册

浏览 1974 次
精华帖 (0) :: 良好帖 (0) :: 新手帖 (0) :: 隐藏帖 (0)
作者 正文
   发表时间:2016-09-09  
微信公众号:构建设计编程
 

-------------------------------------------------------------------------------

 

安装环境配置说明

Hadoop2.2安装在redhat6.8-64位服务器,256G内存,4路CPU。

 

安装环境配置说明

 

序号

主机名

用途

IP地址

 

1

hadoop1

1Hadoop的管理节点(namenode),管理文件系统的元数据,为主节点,状态设置为active状态;

2 Hadoop的数据节点(datanode);

192.168.1.100

 
 
 

2

Hadoop2

1 Hadoop的管理节点(namenode),管理文件系统的元数据,为副节点,状态设置为standby(和oracledataguard的副节点一样),若hadoop1坏掉,则将此节点激活;

2 Hadoop的数据节点(datanode);

192.168.1.101

 
 
 

3

Hadoop3

Hadoop的数据节点(datanode)

192.168.1.102

 
 
 

 

 

 

2准备安装环境

2.1 修改主机名

1运行setup,网络配置-dns配置,注销录 (修改linux主机名方法很多,下面提供一种解决方法)

2 输入命令:hostname  hadoop1(修改主机名,在root下执行)

输入命令:hostname hadoop1

 

3 hostname查看主机名是否修改

输入命令:hostname

 

4将三台主机依次修改为hadoop1hadoop2hadoop3

 

 

2.2 修改host文件

1修改/etc/hosts文件

输入命令:vim /etc/hosts

127.0.0.1 localhost.localdomainlocalhost.localdomain localhost4  localhost4.localdomain4

::1 localhost.localdomain  localhost.localdomain  localhost6  localhost6.localdomain6

192.168.1.100  hadoop1

192.168.1.101  hadoop2

192.168.1.102  hadoop3

hosts文件中增加红色字体内容,ip地址为事先规划好的ip地址,详细见“hadoop2.2三节点安装详细配置表”。

 

2  3hadoop主机都需要进行1的方式修改hosts文件

 

 

2.4 设置java环境变量

说明:java与hadoop都安装在/opt路径下

 

1创建hadoop账户

输入命令:useradd haddoop

修改hadoop密码

输入命令修改hadoop用户密码:passwd hadoop

 

2        准备安装文件

1)hadoop安装文件hadoop-2.2.0.tar.gz上传到/opt路径下

2)jdk文件jdk-6u45-linux-x64.bin上次到/opt路径下

  

3授予jdk安装权限

chomod  +x  jdk-6u45-linux-x64.bin

 

4安装jdk文件

输入命令:cd  /opt 

输入命令:./ jdk-6u45-linux-x64.bin

安装后的路径为:/opt/jdk1.6.0_45

 

5配置java环境变量

切换到hadoop用户

输入命令:su  -  hadoop

输入命令:vim   .bashrc

在最后增加下面的代码

export JAVA_HOME=/opt/jdk1.6.0_45

export CLASSPATH=.:$JAVA_HOME/lib

export PATH=$JAVA_HOME/bin:$PATH

 

6使设置的环境变量生效

输入命令:source .bashrc

 

7查看是java环境是否设置成功

输入命令:java -version

显示:Java HotSpot(TM) 64-Bit Server VM (build 20.45-b01, mixed mode)

表示设置成功,如下图所示


 

 

3 Hadoop安装过程

注意hadoop安装过程使用hadoop账户进行操作

3.1 设置三台主机互相授信

1hadoop1主机上使用hadoop账户登录后输入命令ssh-keygen

所有过程直接回车

 

命令执行后将在/home/hadoop路径下生成一个隐形目录.ssh,该目录下有以下几个文件:

1) authorized_keys 

2) id_rsa

3) id_rsa.pub

4) known_hosts

 

 

2制作授权文件

输入命令:cat id_rsa.pub>> authorized_keys

 

3hadoop2主机上使用hadoop账户登录后输入命令ssh-keygen

所有过程直接回车,同第一台主机hadoop1操作

 

4将主机hadoop1/home/hadoop/.ssh目录下的文件authorized_keys拷贝至主机hadoop2/home/hadoop/.ssh目录下

 

5在主机hadoop2上输入命令(进入/home/hadoop/.ssh目录下)

catid_rsa.pub >> authorized_keys

 

6 hadoop3主机上使用hadoop账户登录后输入命令ssh-keygen

所有过程直接回车,同第一台主机hadoop1操作

 

7将主机hadoop2/home/hadoop/.ssh目录下的文件authorized_keys拷贝至主机hadoop3/home/hadoop/.ssh目录下

 

8在主机hadoop3上输入命令(进入/home/hadoop/.ssh目录下)

catid_rsa.pub >> authorized_keys

 

9将主机hadoop3/home/hadoop/.ssh目录下的authorized_keys文件拷贝至主机hadoop1hadoop2/home/hadoop/.ssh目录下,生成完的authorized_keys大约1K大小

 

10设置三台主机.ssh目录的权限为777

cd /home/hadoop/

chmod 700.ssh

 

11分别设置三台主机的authorized_keys的权限

cd /home/hadoop/.ssh

chmod  644  authorized_keys

 

marg

   发表时间:2016-09-09  
iteye上发帖太麻烦,老是发不完整,大家关注微信公众号查看完整版本安装手册吧
0 请登录后投票
论坛首页 Java企业应用版

跳转论坛:
Global site tag (gtag.js) - Google Analytics