Linux配置
1、配置ip地址:192.168.56.100/24
2、修改主机名:/etc/sysconfig/network
3、修改主机名和IP地址的映射:/etc/hosts
4、关闭防火墙: service iptables stop、chkconfig iptables off
reboot
解压命令:tar -zxvf
安装jdk
解压jdk后,在/etc/profile文件中配置环境变量
export JAVA_HOME=/usr/java/jdk1.7.0_79 export PATH=$PATH:$JAVA_HOME/bin
然后source该文件,然后查看jdk的版本,看是否配置成功
[root@centos1 bin]# java -version java version "1.7.0_79" Java(TM) SE Runtime Environment (build 1.7.0_79-b15) Java HotSpot(TM) Client VM (build 24.79-b02, mixed mode)
安装hadoop2.2.0
到该地址去下载,找stable或current目录,该目录为稳定版
http://archive.apache.org/dist/ http://archive.apache.org/dist/hadoop/core/stable/
解压文件,后开始配置hadoop,这里一共需要配置五个文件
文件一:hadoop-env.sh
位置:
hadoop-2.2.0/etc/hadoop
配置:
export JAVA_HOME=/usr/java/jdk1.7.0_79
文件二:core-site.xml
位置:
hadoop-2.2.0/etc/hadoop
配置:
<configuration> <!-- 制定HDFS的老大(NameNode)的地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://centos1:9000</value> </property> <!-- 指定hadoop运行时产生文件的存储目录 --> <property> <name>hadoop.tmp.dir</name> <value>/usr/hadoop/hadoop-2.2.0/tmp</value> </property> </configuration>
文件三:hdfs-site.xml
位置:
hadoop-2.2.0/etc/hadoop
配置:
<configuration> <!-- 指定HDFS副本的数量 --> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
文件四:mapred-site.xml
该文件并不存在,但是有一个mapred-site.xml.template存在,修改该文件的名称
mv mapred-site.xml.template mapred-site.xml
位置:
hadoop-2.2.0/etc/hadoop
配置:
<configuration> <!-- 指定mr运行在yarn上 --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
文件五:yarn-site.xml
位置:
hadoop-2.2.0/etc/hadoop
配置:
<configuration> <!-- 指定YARN的老大(ResourceManager)的地址 --> <property> <name>yarn.resourcemanager.hostname</name> <value>centos1</value> </property> <!-- reducer获取数据的方式 --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
在/etc/profile 中添加hadoop环境变量
export HADOOP_HOME=/usr/hadoop/hadoop-2.2.0 export PATH=.:$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
格式化hdfs,hadoop namenode -format 这个命令在hadoop2中已经过时了,格式化后会在hadoop-2.2.0/tmp目中生成一些文件
hdfs namenode -format
启动hadoop使用,这是需要属于秘密,每启动一个进程都需要输入一次密码
sbin/start-dfs.sh sbin/start-yarn.sh
启动后查看进程
[root@centos1 sbin]# jps 5129 SecondaryNameNode 5522 NodeManager 5552 Jps 5251 ResourceManager 4890 NameNode 4972 DataNode
192.168.56.100:50070 查看Namenode,访问Browse the filesystem时通过主机名,需要配置hosts文件
192.168.56.100:8088 查看yarn
配饰ssh免密码
#目录 /root/.ssh #生成rsa密钥和公钥 ssh-keygen -t rsa #生成的文件 -rw-------. 1 root root 1675 Sep 19 10:21 id_rsa -rw-r--r--. 1 root root 394 Sep 19 10:21 id_rsa.pub #copy公钥到认证文件中,文件名必须为 authorized_keys cp id_rsa.pub authorized_keys # -rw-r--r--. 1 root root 394 Sep 19 10:24 authorized_keys -rw-------. 1 root root 1675 Sep 19 10:21 id_rsa -rw-r--r--. 1 root root 394 Sep 19 10:21 id_rsa.pub #把本机的公钥copy给对方主机 ssh-copy-id 对方主机地址
相关推荐
Hadoop 2.2.0版本中在64为linux系统上运行所需要的native库文件。需要时用此native文件夹覆盖Hadoop 2.2.0中native文件夹即可。
Hadoop 2.2.0 配置文件 在4台CentOs 6.4版本下运行成功
Hadoop2.2.0安装配置手册,新手安装和配置
自己配了一遍hadoop2.2.0,写给新手,绝对详细,后面还有一个配好了的测试文档,在我的资源里找
本手册主要整理了Hadoop2.2.0的安装,包括QJM实现HA的详细配置,以及Hdfs-site的配置详解。 不包括Hbase、Hive安装
hadoop2.6.0伪分布安装的详细过程。
此伪分布式搭建文件绝对正确,LZ亲自试验过。另,本文件为传智播客中使用文件,请勿用于商业用途,否则后果自负。
Hadoop 2.2.0 分布式安装指导
hadoop2.2.0/2.6.0/2.7.0/2.7.1 64位安装包。
Hadoop官网上下载的hadoop-2.2.0安装包是32位的,直接运行在64位的linux系统上会有问题,所以需要自己将hadoop-2.2.0安装包编译为64位。
资源名称:CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南内容简介: CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南主要讲述的是CentOS 6.5 x64下安装19实体节点Hadoop 2.2.0集群配置指南;...
hadoop伪分布CentOS安装(四)hadoop伪分布CentOS安装(二) 便于开发者,初学者,安装配置hadoop伪分布的环境以及搭建过程
本文档主要详细介绍了Hadoop 2.2.0版本的编译安装过程。
Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程 按照文档中的操作步骤,一步步操作就可以完全实现hadoop2.2.0版本的完全分布式集群搭建过程
hadoop2.2.0安装指南
Hadoop2.7.2伪分布部署 从JDK配置到SSH面密码登陆,Hadoop的详细配置
此hadoop是hadoop-2.2.0是32位的编译出来的,亲测可用
hadoop2 - 虚拟机VMWare - Linux(ubuntu) ,单节点伪分布环境搭建快速手册,同之前上传的doc文档配套。