`
85977328
  • 浏览: 1872565 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop经典系列(一)1.2.1真集群安装

 
阅读更多
实验环境
192.168.56.2    Master.Hadoop
192.168.56.3    Slave1.Hadoop
192.168.56.4    Slave2.Hadoop


一 安装JDK
#  /etc/profile
export JAVA_HOME=/usr/local/java/default
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

# source /etc/profile

二 无密码ssh登录(建议本机也弄)
# 本地执行:生成密钥对
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
# 远程服务器执行:用公钥给远程机器授权
# 注意:在namenode上,为Secondarynamenode也需要操作一次本机的无密钥登陆
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
# 远程机器授权全后,可以删除公钥
rm -rf ~/.ssh/id_dsa.pub

三 配置hadoop
1)配置conf/hadoop-env.sh
export JAVA_HOME=/usr/local/java/default

2)配置conf/core-site.xml
如没有配置hadoop.tmp.dir参数,此时系统默认的临时目录为:/tmp/hadoo-hadoop。而这个目录在每次重启后都会被干掉,必须重新执行format才行,否则会出错

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/hadoop/tmp</value>
        <!--备注:请先在 /usr/hadoop 目录下建立 tmp 文件夹-->
        <description>A base for other temporary directories.</description>
    </property>
    <!-- file system properties -->
    <property>
        <name>fs.default.name</name>
        <value>hdfs://192.168.56.2:9000</value>
    </property>
</configuration>

3)配置hdfs-site.xml
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
        <!--备注:replication 是数据副本数量,例如:设置为3的话,salve少于3台就会报错,副本数量没必要设置太多-->
    </property>
<configuration>

4)配置mapred-site.xml
<configuration>
    <property>
        <name>mapred.job.tracker</name>
        <value>192.168.56.2:9001</value>
    </property>
</configuration>

5)配置masters(secondaryNamenode),使用hosts
Master.Hadoop

6)配置slaves  ,namenode特有datanode可以不配置,使用hosts
Slave1.Hadoop
Slave2.Hadoop

7)其他datanode复制namenode的hadoop即可


四 启动
bin/hadoop namenode -format
sh bin/start-all.sh
验证端口,在namenode上
http://192.168.56.2:50030/
http://192.168.56.2:50070/

五 扩展性
直接拷贝datanode到其他机器,同时增加配置namenode的masters即可
注意新扩展机器的hosts配置,如果用IP配置则可以不关心这个
注意:
namenode必须要配置masters和slaves
datanode只需要配置masters即可,不需要slaves的配置
其他配置完全相同
切记要配置无密码SSH登录,否则无法启动
切记启动之前,先要执行格式化命令bin/hadoop namenode -format,否则无法启动
切记启动之前,要配置conf/hadoop-env.sh的JAVA_HOME,否则无法启动
2
7
分享到:
评论

相关推荐

    hadoop-core-1.2.1.jar

    遇到的问题: ERROR security.UserGroupInformation: PriviledgedActionException as:chuck cause:java.io.IOException: Failed to set permissions of path: ...结论: 已解决我的问题,可以正常访问hadoop集群。

    hadoop1.2.1安装

    刚动手安装完hadoop集群,分享一下!

    Hadoop2.7.1+Hbase1.2.1集群环境搭建(7)hbase 性能优化

    NULL 博文链接:https://aperise.iteye.com/blog/2282670

    hadoop-1.2.1 + zooKeeper3.4.5 + hbase-0.94集群安装部署

    企业内部实际 hadoop zookeeper hbase搭建步骤明细

    在 Ubuntu12.04 上安装Hadoop-1.2.1 (讲解的非常详细)

    自己这一个礼拜搭建成功后,重新截图总结,写出一份很详细的安装Hadoop 集群的文档,希望可以帮助到有需要的朋友,共同进步!

    hadoop 1.2.1 api 最新chm 伪中文版

    Hadoop Map/Reduce是一个使用简易的软件框架,基于它写出来的应用程序能够运行在由上千个商用机器组成的大型集群上,并以一种可靠容错的方式并行处理上T级别的数据集。 一个Map/Reduce 作业(job) 通常会把输入的...

    hadoop2.2.0部署

    1.2.1 注意安装细节 3 1.2.2 设置VIM 命令 3 1.2.3 配置仅主机连网 4 1.2.4 配置网络出现的问题 5 1.2.5 设置桥接上网 6 1.2.6 设置nat上网 12 2 安装基本工具 15 2.1 SSH免登陆配置 15 2.2 SUDO配置 15 3 单机安装...

    hadoop windows 下 修改后的 FileUtil.class

    Win环境下通过Hadoop1.2.1集群 修改org.apache.hadoop.fs.FileUtil文件并重新编译后的FileUtil.class

    hbase-1.2.1-bin.tar的压缩包,下载到本地解压后即可使用 HBase 是一个开源的、分布式的NoSQL 数据库

    HBase 是一个开源的、分布式的、版本化的 NoSQL 数据库(也即非关系型数据库),它利用 Hadoop 分布式文件...HBase 作为 Hadoop 框架下的数据库,是被设计成在一个服务器集群上运行的。。。。。。。。。。。。。。。

    Hadoop实战(第2版)

    Hadoop是一个开源的MapReduce平台,设计运行在大型分布式集群环境中,提供查询和分析服务。尤其适用于大数据系统,Hadoop为苹果、eBay、LinkedIn、雅虎和Facebook等公司提供重要软件环境。它为开发者进行数据存储、...

    Hadoop入门实战手册

    3.4 ................................................................................7 运行Hadoop集群的准备工作 3.5 ........................................................................................

    CDH5.11安装文档

    第一部分:基础软件安装 1.1集群规划 主机节点 服务 主机名称 硬件资源 172.30.5.243 namenode,zookeeper, HMaster,kafka,spark, elasticsearch master 内存:64GB 硬盘:7T 172.30.5.244 secorndaryNameNode,...

    hadoopi:该项目包含配置文件和厨师代码,以将五个Raspberry Pi 3s的集群配置为运行Hue的工作Hadoop

    Hadoopi-Raspberry Pi Hadoop集群该项目包含配置文件和厨师代码,用于... 已安装的Hadoop组件的版本为: Hadoop 2.6.4 色调3.11.0 基础1.2.4 猪0.12.1 蜂巢1.2.1 火花1.6.2 livy 0.2.0 oozie 4.3.0 鱿鱼1.99.4 索尔4.1

    hadoop大数据实战手册

    第一部分核心设计篇 第1 章HDFS 的数据存储………….. .....………………… ……………………····· ··· …..... ... 2 1.1 HDFS 内存存储...............…·······················...

    spark1.2集群搭建文档

    spark集群搭建文档,版本号:spark-1.2.1-bin-hadoop2.3.tgz

    Accumulo_1_5_0_By_Vagrant:在 Ubuntu 12.04 上的 Hadoop v1.2.1 上运行 Accumulo v1.5.X(精确)

    在 Ubuntu Precise (12.04) 上运行的三节点 Accumulo 集群。 实例名称是“实例”。 用户名为“root”,密码为“secret”。 安装流浪汉 vagrant 插件安装 vagrant-hostmanager 下载这个项目。 运行 'vagrant up' ...

    SparkSql技术

    5.1:虚拟集群的搭建(hadoop1、hadoop2、hadoop3) 41 5.1.1:hadoop2.2.0集群搭建 41 5.1.2:MySQL的安装 41 5.1.3:hive的安装 41 5.1.4:Spark1.1.0 Standalone集群搭建 42 5.2:客户端的搭建 42 5.3:文件数据...

    Real-time-Risk-Management-System:金融集团

    实时风险管理系统队员:黄日俊 (ih138)、许... 名称/辅助节点,数据节点iPython:用于交互式分析配置了 Pyspark 模块配置为远程访问主服务器Apache Hadoop 1.2.1 名称节点、辅助名称节点、数据节点Apache Spark 1.0.2

    快速学习-Hive 安装

    第 2 章 Hive 安装 2.1 Hive 安装地址 Hive 官网地址 http://hive.apache.org/ 文档查看地址 https://cwiki.apache.org/confluence/display/Hive/GettingStarted 下载地址 http://archive.apache.org/dist/hive/ 2.2...

Global site tag (gtag.js) - Google Analytics