hdfs集群安装与配置
准备
1.1创建新用户
sudo useradd hadoop //新建hadoop用户
sudo passwd hadoop //输入密码
sudo vi /etc/sudoers //添加hadoop的sudo权限; 新增一行:hadoop ALL=(ALL) ALL
1.2安装JAVA
-
下载 java 包,jdk1.6 以上
-
有很多下tar.gz 包的不能正常安装,建议用apt-get 或者下载bin 格式的安装包。
2.配置hosts与hostname
sudo vi /etc/hosts
编辑内容:
192.168.1.80 ns(主机名,尤其是namenode,不能包含下划线)
192.168.1.81 ds1
192.168.1.82 ds2
192.168.1.83 ds3
192.168.1.84 ds4
192.168.1.85 ns2
所有节点均按以上配置
修改各结点上的主机名:
hostname ns(临时生效,可通过修改/etc/hostname)
其它结点也和上面hosts中的主机名配置保持一致
3.安装配置ssh
3.1 ssh安装略
3.2 ssh配置:
在ns上:
ssh-keygen –t rsa
一直按回车使用默认配置
将ns上的公钥拷贝到ns2和各个ds:
scp ~/.ssh/id_rsa.pub hadoop@target:~/master_key
在除ns外的节点上:
mkdir ~/.ssh
chmod 700 ~/.ssh
cat ~/master_key >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
尝试从ns用ssh连接其它节点,如果不需要输入密码则配置成功
4.安装hadoop
4.1解压并创建必要目录
(所有节点操作和配置均相同)
获取包hadoop-1.0.3.tar.gz至/home/hadoop
su hadoop
cd ~
tar zxvf hadoop-1.0.3.tar.gz
cd hadoop-1.0.3
mkdir data
mkdir tmp
chmod 755 data
4.2 配置各个节点角色
(masters 和 slaves 这两个配置文件可以只在ns上编辑配置)
vi ~/hadoop-1.0.3/conf/masters
编辑内容:
ns2
#这里ns2代表secondnamenode 的hostname
vi ~/hadoop-1.0.3/conf/slaves
编辑内容:
ds1
ds2
ds3
ds4
#以上的为各个datanode的hostname
4.3配置hadoop-env.sh、hdfs-site.xml和core-site.xml
(所有节点操作和配置均相同)
vi ~/ hadoop-1.0.3/conf/hadoop-env.sh
修改内容:
export JAVA_HOME=/usr/lib/jvm/java-1.6.0
#以上环境变量要设置为系统java的安装路径
vi ~/hadoop-1.0.3/conf/hdfs-site.xml
编辑内容:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/hadoop-1.0.3/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/hadoop-1.0.3/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>4096</value>
</property>
<property>
<name>dfs.namenode.handler.count</name>
<value>1000</value>
</property>
<property>
<name>dfs.datanode.handler.count</name>
<value>1000</value>
</property>
<property>
<name>dfs.client.block.write.retries</name>
<value>10</value>
</property>
<property>
<name>dfs.datanode.max.xcievers</name>
<value>2560000</value>
</property> </configuration>
vi ~/hadoop-1.0.3/conf/core-site.xml
编辑内容:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://ns:9000/</value> //ns代表namenode的hostname
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-1.0.3/tmp</value>
</property>
<property>
<name>dfs.datanode.socket.write.timeout</name>
<value>3000000</value>
</property>
<property>
<name>dfs.socket.timeout</name>
<value>3000000</value>
</property>
</configuration>
4.4配置/etc/profile
(所有节点操作和配置均相同)
-
配置 /etc/profile (配置完后输入source /etc/profile 生效),添加:
export JAVA_HOME=/java的安装路径
export JRE_HOME=$JAVA_HOME/jre
export HADOOP_HOME=/home/hadoop/hadoop20/
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
5.启动hdfs
5.1格式化namenode
hadoop namenode –format
5.2启动hdfs
start-dfs.sh
5.3检测是否成功启动
(1)在各个节点上执行jsp,观察是否都有对应的hdfs进程(namenode、secondarynamenode、datanode)
(2)在namenode上执行:hadoop fsck /
检查hdfs状态
(3)在namemode上执行:hadoop dfsadmin –report
查看hdfs文件系统信息,包括空间容量和已用空间
(4)hadoop fs –ls /
查看hdfs根目录下所有文件
hadoop fs –put localfile /hdfsfile
将本地文件系统上localfile文件拷贝到hdfs根目录下hdfsfile文件
如果有提示“hdfs is in safemode”,执行:hadoop dfsadmin –safemode leave
常用命令:
hadoop –fs rm /file
stop-all.sh
相关推荐
HDFS HA 配置、启动与验证;HDFS HA 配置、启动与验证;任务一 修改core-site.xml配置文件;任务二 修改hdfs-site.xml配置文件(一);任务二 修改hdfs-site.xml配置文件(二);任务二 修改hdfs-site.xml配置文件(三);...
kubernetes-HDFS, 在Kubernetes中,保存用于运行HDFS集群的配置文件的存储库 版式标题全局Kubernetes上的HDFSKubernetes上的存储在Kubernetes上的Hadoop分布式文件系统( HDFS )的存储库。有关如何运行图表的信息,请...
python 零基础学习篇-04.HDFS集群搭建--服务器-网络配置准备.mp4
Hadoop集群安装与配置详细步骤
启动HDFS集群 任务七 验证HDFS集群 任务一 Hadoop安装及JDK环境变量配置 所有节点,使用 root 用户登录,修改 /opt 的权限 # chmod 777 /opt --修改 /opt 文件夹的权限,使得 hadoop用户可读写 主节点使用 hadoop ...
HIVE的安装及使用@[周小龙]hive其实就是一个客户端工具,根据sql语义转化为相应的mapreduce,跑在hdfs集群上面,返回结果在返回给hive,这篇操作手册是在HDFS集群搭建成功的基础上而写,所有前提是你已经有HDFS集群,此...
HadoopHA高可用集群配置 hdfs-site.xml
并行程序设计,Hadoop集群的安装与配置。 Hadoop一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。Hadoop实现了一个...
针对传统文件资源存储方法存在存储效率低的问题,提出了一种跨HDFS集群的文件资源分布式高效存储方法。依据HDFS集群文件资源特征及存储原理,分析资源分布式存储的逻辑关系,保证文件资源存储环境安全。依据标准...
hadoop单机安装与测试 1•Local (Standalone) Mode(单节点的本地模式)Linux的文件系统就是hadoop的存储系统运行在单个的jvm环境,它使用linux的文件系统,适用于开发、测试、调试环境 运行案例 2•Pseudo-...
1.集群规划 2.解压安装 4.集群操作 1.官方地址 2.在opt目录下创建一个ha文件夹 7.拷贝配置好的hadoop环境到其他节点 1.在各个Journa
在《CentOS7下Hadoop3.2.1集群的安装与部署(上)》中我们我们完成了对Hadoop集群的安装与启动。接下来,重点对HDFS和Yarn的HA配置进行介绍。 HDFS高可用 在上述Hadoop集群搭建完成之后,若要启用HA还需要对hdfs-...
本手册主要整理了Hadoop2.2.0的安装,包括QJM实现HA的详细配置,以及Hdfs-site的配置详解。 不包括Hbase、Hive安装
4. 理解为何需要配置 SSH 免密登录,掌握 Linux 环境下 SSH 的安装、免密登录的配置。 5. 熟练掌握在 Linux 环境下如何部署全分布模式 Hadoop 集群。 二、实验环境 本实验所需的软硬件环境包括 PC、VMware ...
Hadoop HA 集群搭建所需要的配置文件:core-site,hdfs-site,mapred-site,yarn-site四个xml文件和一个slaves文件
HDFS能 够提供对数据的可扩展访问,通过简单地往集群里添加节点就可以解决大量客户端同时访问的问题。HDFS支持传统的层次文件组织结构,同现 有的一些文件系 统类似,如可以对文件进行创建、删除、重命名等操作。
8.2 CDH4B1版本HDFS集群配置 8.2.1 虚拟机安装 8.2.2 nn1配置 8.2.3 dn1~dn3配置 8.2.4 HDFS集群构建 8.3 HA NameNode配置 8.3.1 nn1配置 8.3.2 其他节点配置 8.4 HA NameNode使用 8.4.1 启动HA HDFS集群 8.4.2 第1...
lnmp(linux+nginx+mysql+php)安装配置及分布式系统大数据处理hadoop集群中的flume+Kafka+Storm+HDFS等实时系统搭分享
shell定时采集数据至HDFS,假如有这样的需求:要求在凌晨24点开始操作前一天产生的日志文件,准实时上传至HDFS集群上。 该如何实现?实现后能否实现周期性上传需求?如何定时?
通过修改flume源码实现flume向两个HA hadoop集群分发数据。