`
jsh0401
  • 浏览: 11033 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop1.x环境搭建

 
阅读更多

1.1 本地模式:运行时不使用HDFS   
1.2 伪分布模式:在一个节点上运行hadoop集群
1.3 集群模式:在生产中真正使用的,hadoop的各个进程运行在集群的很多节点上

2.部署集群开发环境
在windows的C:\Windows\System32\drivers\etc\hosts增加ip与主机名绑定

2.1 设置静态ip
(1)使用vi编辑文件/etc/sysconfig/network-scripts/ifcfg-eth2
   BOOTPROTO=static
   IPADDR=192.168.1.191
   NETMASK=255.255.255.0
   GATEWAY=192.168.1.1
   DNS1=192.168.1.1
   保存退出
(2)执行命令service network restart重启网卡设置
(3)执行命令ifconfig查看配置结果是否正确

2.2 设置hostname
(1)使用vi编辑/etc/sysconfig/network
   把HOSTNAME的值改为hadoop1,保存退出。
(2)执行hostname hadoop1,在当前环境中立即生效 
(3)执行命令hostname查看设置结果

2.3 绑定ip与hostname
   编辑文件/etc/hosts,增加ip与hostname的映射信息
 
2.4 关闭防火墙
(1) 执行命令service iptables stop关闭防火墙
(2)执行命令service iptables status查看防火墙是否正在运行

2.5 关闭防火墙的自动运行
(1) 执行命令chkconfig iptables off

2.6 SSH(secure shell)免密码登录
(1)执行命令ssh-keygen -t rsa产生公钥私钥文件,产生的文件位于~/.ssh目录下
(2)执行命令ssh-copy-id -i hadoop4复制公钥文件到对方hadoop4中authorized_keys中去了。
(3)执行ssh hadoop4,就可以实现真正的免密码登录了。
只需要实现主节点(hadoop1)到从节点(hadoop3\hadoop4\hadoop5)的免密码登录即可,不必要实现从节点到主节点的免密码登录。

2.7 部署hadoop
(1)在hadoop1上执行命令cp /mnt/software/hadoop-1.1.2.tar.gz  ~ 复制hadoop压缩包到home目录
(2)在hadoop1上执行命令 tar -zxvf ~/hadoop-1.1.2.tar.gz 进行解压缩,产生文件夹hadoop-1.1.2
(3)在hadoop1上执行命令 vi ~/.bashrc 设置环境变量,增加的内容如下hadoop1上执行命令 vi ~/.bashrc 设置环境变量,增加的内容如下
   export HADOOP_HOME=/mnt/home/cr00/hadoop-1.1.2
   export PATH=.:$HADOOP_HOME/bin:$PATH
   保存退出
   记得执行source  ~/.bashrc
(4)在hadoop1上编辑配置文件,见word文档hadoop1上编辑配置文件

    hadoop-env.sh
          export JAVA_HOME=/usr/local/jdk

    core-site.xml
          <configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://hadoop:9000</value>
        <description>change your own hostname</description>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
    </property>
</configuration>
  
    hdfs-site.xml
          <configuration>
     <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
</configuration>

    mapred-site.xml
<configuration>
     <property>
        <name>mapred.job.tracker</name>
        <value>hadoop:9001</value>
        <description>change your own hostname</description>
    </property>
</configuration>


(5)把hadoop1上的hadoop-1.1.2复制到其他节点,执行命令hadoop1上的hadoop-1.1.2复制到其他节点,执行命令
   scp -r  ~/hadoop-1.1.2 hadoop2:~/
   scp -r  ~/hadoop-1.1.2 hadoop3:~/
   scp -r  ~/hadoop-1.1.2 hadoop4:~/
   scp -r  ~/hadoop-1.1.2 hadoop5:~/
 
   scp ~/.bashrc hadoop2:~/
   scp ~/.bashrc hadoop3:~/
   scp ~/.bashrc hadoop4:~/
   scp ~/.bashrc hadoop5:~/
 
   在其他各个节点,执行命令source ~/.bashrc
(6)在hadoop1节点执行命令hadoop namenode -format 进行格式化hadoop1节点执行命令hadoop namenode -format 进行格式化
(7)在hadoop1节点执行命令start-all.sh 启动集群  hadoop1节点执行命令start-all.sh 启动集群 

------------------------------------------------------

1.搭建集群环境,NameNode和JobTracker不在一个节点上。
  假设NameNode在chaoren1上,JobTracker在hadoop2上。
1.1 NameNode所在节点是通过配置文件core-site.xml的fs.default.name的值体现的。
    值还是hdfs://hadoop1:9000
   
     JobTracker所在节点是通过配置文件mapred-site.mlx的mapred.job.tracker的值体现的。
     值修改为http://hadoop2:9001
1.2 在hadoop1上执行命令hadoop-daemon.sh start namenode
     在hadoop2上执行命令hadoop-daemon.sh start jobtracker
     在hadoop2上执行命令hadoop-daemon.sh start secondarynamenode
     在hadoop1上执行命令hadoop-daemons.sh start datanode
     在hadoop1上执行命令hadoop-daemons.sh start tasktracker

分享到:
评论

相关推荐

    hadoop1.x环境搭建及其入门

    hadoop1.x环境搭建及其入门,如需获取更多hadoop资源

    Hadoop2.x HA环境搭建

    Hadoop2.x HA环境搭建Hadoop2.x HA环境搭建Hadoop2.x HA环境搭建

    hadoop1.x基础环境搭建手册V1.1.0

    基础的hadoop集群环境搭建步骤,包含SSH免密登录,DNS服务器配置等基础环境搭建流程

    hadoop-2.x的环境搭建

    关于hadoop2.x的安装,其中包括了一个完整的集群以及各种hadoop组件的安装和部署,解压包中包括了四篇的安装教程,超级完整。

    Hadoop3.1.x_Windows环境整合依赖.rar

    Hadoop3.1.X的windows环境搭建依赖的文件,里边包含了windows环境所依赖的所有文件

    CentOS7下安装eclipse并编译hadoop2.x

    通过VMWare虚拟机安装CentOS7,在CentOS7操作系统下搭建hadoop2.x的编译环境,通过eclipse完成对hadoop2.x的编译。部署新编译的hadoop单机伪分布运行环境,通过相应的管理IP可查看集群运行状态

    Hadoop3.3高可用环境搭建 .docx

    五台虚拟机搭建Hadoop3.3.1高可用完全分布式环境

    Hadoop 2.x伪分布式环境搭建详细步骤

    主要为大家详细介绍了Hadoop 2.x伪分布式环境搭建详细步骤,感兴趣的朋友可以参考一下

    Ubuntu16.04搭建Hadoop2.6.7.pptx

    搭建Hadoop2.6.7集群环境 一、Hadoop概述 Hadoop是一个由Apache基金会开发的分布式计算框架,主要用于处理大规模数据。Hadoop框架主要包括HDFS(Hadoop Distributed File System)、MapReduce和YARN(Yet Another ...

    hadoop_dll_winutil_2.7.3_x64.zip

    windows 64位下hadoop2.7.3搭建环境所需的hadoop.dll及winutil.exe等

    Hadoop2.X/YARN环境搭建--CentOS7.0系统配置

    Hadoop原本来自于谷歌一款名为MapReduce的编程模型包。谷歌的MapReduce框架可以把一个应用程序分解为许多并行计算指令,跨大量的计算节点运行非常巨大的数据集。使用该框架的一个典型例子就是在网络数据上运行的搜索...

    Hadoop2.4.0测试环境搭建

    Hadoop2.4.0测试环境搭建 http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.1-latest/bk_installing_manually_boo k/content/rpm-chap1-11.html [bigdata@namenode1 scripts]$ pwd /home/bigdata/software/...

    Hadoop原理及部署

    Hadoop原理及部署,非常全面的讲解 ...Hadoop是目前市场接受程度最高的大数据技术平台之一,在大量有代表性的Hadoop 1.x用户使用体验和反馈的基础上,广受关注的Hadoop 2.x版本在平台设计层面做出了重大改进

    hadoop环境搭建

    该资源为Hadoop2.x环境搭建的操作流程以及一些相关的简单操作,适合初学者,该资源为博主原创,如有错误,欢迎大家批评指正。

    hadoop高可用搭建

    hadoop集群搭建高可用文档在Hadoop2.x之后的版本,提出了解决单点问题的方案--HA(High Available 高可用)。这篇博客阐述如何搭建高可用的HDFS和YARN,执行步骤如下: 创建hadoop用户 安装JDK 配置hosts 安装SSH ...

    hadoop伪分布式配置教程.doc

    本教程使用 Ubuntu 14.04 64位 作为系统环境(Ubuntu 12.04,Ubuntu16.04 也...本教程基于原生 Hadoop 2,在 Hadoop 2.6.0 (stable) 版本下验证通过,可适合任何 Hadoop 2.x.y 版本,如 Hadoop 2.7.1、2.6.3、2.4.1等。

    hadoop-3.2.2.tar.zip

    hadoop环境搭建,linux下,直接拖入X-shell即可

    Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建

    Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建 Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建是大数据处理和存储的重要组件,本文档将指导用户从零开始搭建一个完整的Hadoop2.2+Zookeeper3.4.5+HBase0.96集群...

    Hadoop2.X/YARN环境搭建--CentOS7.0 JDK配置

    在Centos中,进行配置jdk的环境,这个还是折腾了我听挺久的。特别是在一次配置中,导致后来我的root用户无法登录,并且用其他普通用户登录,使用su - root切换到root用户,都无法使用ls这一些普通的命令。由于没有...

    hadoop1.0\2.0学习笔记及

    hadoop1.x、2.x,hadoop学习个人笔记,hadoop环境搭建,java开发实例等

Global site tag (gtag.js) - Google Analytics