一、 集群规划:
主机名称 主机IP 安装软件 运行的进程
hadoop01 10.1.19.130 zookeepr1 DataNode、NodeManager、JournalNode、QuorumPeerMain
hadoop02 10.1.19.132 zookeepr2 DataNode、NodeManager、JournalNode、QuorumPeerMain
hadoop03 10.1.19.134 zookeepr3 DataNode、NodeManager、JournalNode、QuorumPeerMain
hadoop04 10.1.19.189 NameNode、DFSZKFailoverController(zkfc)
hadoop05 10.1.19.194 NameNode、DFSZKFailoverController(zkfc)
hadoop06 10.1.19.223 DataNode、NodeManager、JournalNode、QuorumPeerMain
hadoop07 10.1.19.226 ResourceManager
hadoop08 10.1.19.227 ResourceManager
二、 环境准备
2.1、系统环境
OS:Linux RedHat 6.5 64bit
JDK:1.7.1
zookeeper:3.4.6版本(已安装完成)
硬件:虚拟机
2.2 系统配置
关闭防火墙
配置无密码访问
ssh-keygen -t rsa
cp id_rsa.pub authorized_keys
ssh-copy-id hadoop01
ssh-copy-id hadoop02
ssh-copy-id hadoop03
ssh-copy-id hadoop04
ssh-copy-id hadoop05
ssh-copy-id hadoop06
ssh-copy-id hadoop07
ssh-copy-id hadoop08
2.3 配置JDK的环境变量以及HADOOP的环境变量
vim /etc/profile
export JAVA_HOME=/usr/local/java/jdk1.7.0_71
export HADOOP_HOME=/usr/local/hadoop-2.7.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
三、 安装hadoop
3.1 解压安装包
tar -xzvf /usr/local/hadoop-2.7.1.tar.gz -C /usr/local/
3.2 配置环境
进入
/usr/local/hadoop-2.7.1/etc/hadoop 目录下
分别修改
hadoo-env.sh
core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml
slaves
共计6个文件
3.2.1 修改 hadoo-env.sh
export JAVA_HOME=/usr/local/java/jdk1.7.0_71
3.2.2修改core-site.xml
<configuration>
<!-- 指定hdfs的nameservice为ns1 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://ns1</value>
</property>
<!-- 指定hadoop临时目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop-2.7.1/tmp</value>
</property>
<!-- 指定zookeeper地址 -->
<property>
<name>ha.zookeeper.quorum</name>
<value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
</property>
</configuration>
3.2.3修改hdfs-site.xml
<configuration>
<!--指定hdfs的nameservice为ns1,需要和core-site.xml中的保持一致 -->
<property>
<name>dfs.nameservices</name>
<value>ns1</value>
</property>
<!-- ns1下面有两个NameNode,分别是nn1,nn2 -->
<property>
<name>dfs.ha.namenodes.ns1</name>
<value>nn1,nn2</value>
</property>
<!-- nn1的RPC通信地址 -->
<property>
<name>dfs.namenode.rpc-address.ns1.nn1</name>
<value>hadoop04:9000</value>
</property>
<!-- nn1的http通信地址 -->
<property>
<name>dfs.namenode.http-address.ns1.nn1</name>
<value>hadoop04:50070</value>
</property>
<!-- nn2的RPC通信地址 -->
<property>
<name>dfs.namenode.rpc-address.ns1.nn2</name>
<value>hadoop05:9000</value>
</property>
<!-- nn2的http通信地址 -->
<property>
<name>dfs.namenode.http-address.ns1.nn2</name>
<value>hadoop05:50070</value>
</property>
<!-- 指定NameNode的元数据在JournalNode上的存放位置 -->
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://hadoop01:8485;hadoop02:8485;hadoop03:8485/ns1</value>
</property>
<!-- 指定JournalNode在本地磁盘存放数据的位置 -->
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/usr/local/hadoop-2.7.1/journal</value>
</property>
<!-- 开启NameNode失败自动切换 -->
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
<!-- 配置失败自动切换实现方式 -->
<property>
<name>dfs.client.failover.proxy.provider.ns1</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<!-- 配置隔离机制方法,多个机制用换行分割,即每个机制暂用一行-->
<property>
<name>dfs.ha.fencing.methods</name>
<value>
sshfence
shell(/bin/true)
</value>
</property>
<!-- 使用sshfence隔离机制时需要ssh免登陆 -->
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property>
<!-- 配置sshfence隔离机制超时时间 -->
<property>
<name>dfs.ha.fencing.ssh.connect-timeout</name>
<value>30000</value>
</property>
</configuration>
3.2.4修改mapred-site.xml
<configuration>
<!-- 指定mr框架为yarn方式 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
3.2.5修改yarn-site.xml
<configuration>
<!-- 开启RM高可靠 -->
<property>
<name>yarn.resourcemanager.ha.enabled</name>
<value>true</value>
</property>
<!-- 指定RM的cluster id -->
<property>
<name>yarn.resourcemanager.cluster-id</name>
<value>yrc</value>
</property>
<!-- 指定RM的名字 -->
<property>
<name>yarn.resourcemanager.ha.rm-ids</name>
<value>rm1,rm2</value>
</property>
<!-- 分别指定RM的地址 -->
<property>
<name>yarn.resourcemanager.hostname.rm1</name>
<value>hadoop07</value>
</property>
<property>
<name>yarn.resourcemanager.hostname.rm2</name>
<value>hadoop08</value>
</property>
<!-- 指定zk集群地址 -->
<property>
<name>yarn.resourcemanager.zk-address</name>
<value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
3.2.6修改slaves
slaves是指定子节点的位置,
因为要在hadoop04上启动HDFS、
在hadoop07启动yarn,
在hadoop01启动journalnode
所以hadoop04上的slaves文件指定的是datanode的位置,
hadoop07上的slaves文件指定的是nodemanager的位置
hadoop01上的slaves文件指定的是journalnode的位置)
hadoop01
hadoop02
hadoop03
hadoop06
四、启动Hadoop集群
4.1 启动zookeeper集群 (hadoop01、hadoop02、hadoop03)
hadoop01: /usr/local/zookeeper-3.4.6/bin/zkServer.sh start
4.2 启动journalnode (hadoop-daemons 根据slaves中的配置启动journalnode)
sbin/hadoop-daemons.sh start journalnode
#运行jps命令检验,hadoop01、hadoop02、hadoop03上多了JournalNode进程
4.3 格式化HDFS
#在hadoop04上执行命令:
hdfs namenode -format
#格式化后会在根据core-site.xml中的hadoop.tmp.dir配置生成个文件,这里我配置的是/hadoop/hadoop-2.4.1/tmp,然后将/hadoop/hadoop-2.7.1/tmp拷贝到hadoop05的/hadoop/hadoop-2.7.1/下。
scp -r tmp/ hadoop05:/hadoop/hadoop-2.7.1/
4.4格式化ZK(在hadoop04上执行即可)
hdfs zkfc -formatZK
4.5启动HDFS(在hadoop04上执行)
sbin/start-dfs.sh
4.6启动YARN(#####注意#####:是在hadoop07上执行start-yarn.sh,把namenode和resourcemanager分开是因为性能问题,因为他们都要占用大量资源,所以把他们分开了,他们分开了就要分别在不同的机器上启动)
sbin/start-yarn.sh
5、测试
HDFS管理:http://10.1.19.189:50070
YARN管理:http://10.1.19.226:8088
相关推荐
hadoop-annotations-3.1.1.jar hadoop-common-3.1.1.jar hadoop-mapreduce-client-core-3.1.1.jar hadoop-yarn-api-3.1.1.jar hadoop-auth-3.1.1.jar hadoop-hdfs-3.1.1.jar hadoop-mapreduce-client-hs-3.1.1.jar ...
Hadoop权威指南----读书笔记
hadoop-eclipse-plugin-3.1.3,eclipse版本为eclipse-jee-2020-03
flink整合Hadoop,注意:以 Yarn 模式部署 Flink 任务时,要求 Flink 是有 Hadoop 支持的版本,Hadoop 环境需要保证版本在 2.2 以上,并且集群中安装有 HDFS 服务。
# 解压命令 tar -zxvf flink-shaded-hadoop-2-uber-3.0.0-cdh6.2.0-7.0.jar.tar.gz # 介绍 用于CDH部署 Flink所依赖的jar包
Hadoop-3.3.0集群环境配置文件
Hadoop-1.0.0集群安装
hadoop-eclipse-plugin-2.7.4.jar和hadoop-eclipse-plugin-2.7.3.jar还有hadoop-eclipse-plugin-2.6.0.jar的插件都在这打包了,都可以用。
在eclipse中搭建hadoop环境,需要安装hadoop-eclipse-pulgin的插件,根据hadoop的版本对应jar包的版本,此为hadoop3.1.2版本的插件。
Hadoop Eclipse是Hadoop开发环境的插件,用户在创建Hadoop程序时,Eclipse插件会自动导入Hadoop编程接口的jar文件,这样用户就可以在Eclipse插件的图形界面中进行编码、调试和运行Hadop程序,也能通过Eclipse插件...
大数据系统学习笔记-0002 - Hadoop集群搭建 - 资源包 资源列表: hadoop-2.7.4.tar.gz jdk-8u301-linux-x64.tar.gz zookeeper-3.4.10.tar.gz
hadoop学习---运行第一个hadoop实例。hadoop环境搭建好后,运行第wordcount示例
Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据...
Hadoop-2.8.0-HA-Hive安装部署与HQL07.hive.mp4
Hadoop权威指南----读书笔记介绍Hadoop这一高性能处理海量数据集的理想工具
Hadoop-2.8.0-HA-Hive安装部署与HQL05.mysql的安装详细步骤.mp4
hadoop-eclipse-plugin-2.7.2.jar,编译环境win10-64,ant-1.9.6,eclipse-4.5.2(4.5.0可用,其他未测),hadoop-2.7.2
hadoop-eclipse-plugin-2.7.1.jar插件,直接放在eclipse插件目录中
Hadoop hbase hive sqoop集群环境安装配置及使用文档
自己整理的hadoop学习笔记,很详尽 很真实。linux操作终端下遇到的各种Hadoop常见问题 解决方案