问题一:
在对HDFS格式化,执行hadoop namenode -format命令时,出现未知的主机名的问题,查看logs错误信息如下:
引用
2012-08-29 09:59:21,707 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = java.net.UnknownHostException: SC-026.cfind.com: SC-026.cfind.com: 未知的名称或服务
STARTUP_MSG: args = []
STARTUP_MSG: version = 1.0.3
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1335192; compiled by 'hortonfo' on Tue May 8 20:31:25 UTC 2012
解决方法:
[root@SC-026 software]# hostname
SC-026.cfind.com
由于hadoop配置的过程中用的是localhost,相当于主机名,但通过命令hostname命令获取到的主机名是SC-026.cfind.com,所以在/etc/hosts文件中进行映射的时候找不到,查看一下/etc/hosts:
[root@SC-026 software]# cat /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
192.168.15.45 SC-026.cfind.com SC-026.cfind.com
再查看一下/etc/sysconfig/network文件:
[root@SC-026 software]# cat /etc/sysconfig/network
NETWORKING=yes
NETWORKING_IPV6=no
HOSTNAME=SC-026.cfind.com
那么可以修改/etc/hosts如下:
[root@SC-026 software]# cat /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
192.168.15.45 SC-026.cfind.com localhost
重启服务
[root@SC-026 software]# /etc/rc.d/init.d/network restart
正在关闭接口 eth0: [确定]
正在关闭接口 eth1: [确定]
关闭环回接口: [确定]
弹出环回接口: [确定]
弹出界面 eth0: [确定]
弹出界面 eth1:
正在决定 eth1 的 IP 信息...完成。
[确定]
问题二:
无法正常格式化,在 /tmp/hadoop-root/dfs/name终止:
[root@SC-026 bin]# hadoop namenode -format
12/08/29 12:21:18 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = SC-026.cfind.com/192.168.15.45
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 1.0.3
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1335192; compiled by 'hortonfo' on Tue May 8 20:31:25 UTC 2012
************************************************************/
Re-format filesystem in /tmp/hadoop-root/dfs/name ? (Y or N) y
Format aborted in /tmp/hadoop-root/dfs/name
12/08/29 12:21:20 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at SC-026.cfind.com/192.168.15.45
解决方法:
在格式化前,删除/tmp/hadoop-root/dfs/name文件夹:
[root@SC-026 bin]# rm -rf /tmp/hadoop-root/dfs/name
再格式化。。。
问题三:
出现启动不完整的情况:
[root@SC-026 bin]# jps
3572 org.eclipse.equinox.launcher_1.2.0.v20110502.jar
5389 Jps
5326 TaskTracker
5202 JobTracker
解决方法:
[root@SC-026 bin]# service iptables stop
[root@SC-026 bin]# /etc/init.d/iptables status
防火墙已停
在Linux下关闭防火墙,再重新格式化,重启服务。
如还有其他错误信息,查看日志中报错信息即可,日志路径:
[root@SC-026 logs]# pwd
/data/software/hadoop-1.0.3/logs
即在你的安装目录下的logs中。
分享到:
相关推荐
linux下安装hadoop Linux版本:centos5 Hadoop版本:hadoop-0.20.2.tar.gz
centos安装配置hadoop超详细过程.docx
Linux运维入门Hadoop实验参照手册一(安装VMware与CentOS)
CentOS Linux中搭建Hadoop和Spark集群详解,Hadoop是一个开源的可运行于大规模集群上的分布式文件系统和运行处理基础框架。其擅长于在廉价机器搭建的集群上进行海量数据(结构化与非结构化)的存储与离线处理。Hadoop...
第6集-Hadoop环境搭建 - linux(centos7) - 安装配置hbase1.3.6.pdf
该文档是本人亲自试验过的,包含虚拟机centOS6.5系统的下载,安装,jdk配置,hadoop安装诸多内容。版权所有,未经许可,不得转载。
hadoop+spark+hive Linux centos大数据集群搭建,简单易懂,从0到1搭建大数据集群
在centos7 下面自己编译,安装部署Hadoop集群环境。包括需要插件等等
教程:在linux虚拟机下(centos),通过docker容器,部署hadoop集群。一个master节点和三个slave节点。
LinuxRedHat、CentOS上搭建Hadoop集群.pdf
第7集:安装配置hive-2.1.1 合计8集: ...2、安装配置jdk1.8 3、安装配置hadoop-2.7.7 4、安装配置mysql-5.5.44 5、安装配置scala-2.11.8 6、安装配置hbase-1.3.6 7、安装配置hive-2.1.1 8、安装配置spark(进行中
网上看的都是64位的lzop 压缩包下载,现在提供一个32位的centos-i686编译后的下载包
linux:centos6.5 hadoop版本:2.6.0 集群方式:伪分布式 已经通过 内容比较详尽
hadoop-2.7.4版本源码包,经过在Centos6.5系统环境编译打包,适合64位Linux系统软件安装包,是我亲自编译的,花了不少时间,亲测有效,成功在Linux系统构建了Hadoop集群
本文将向您展示如何从零开始在 Linux 上搭建 Hadoop,以及如何配置 Hadoop 的必备文件。 一、选择 Linux 发行版 选择正确的 Linux 发行版是为 Hadoop 集群配置环境的重要一步。Ubuntu、CentOS、Debian 等都是常见的...
1、了解linux 2、了解虚拟机或者云服务器 3、懂java
第3集-Hadoop环境搭建 - linux(centos7) - 安装配置hadoop2.7.7.pdf
Hadoop 2.6.5在CentOS6.8版本下的集群部署 1
Hadoop2.4linux安装配置过程详细过程。
Hadoop 是一个能够对大量数据进行分布式处理的软件框架。但是 Hadoop 是以一种可靠、高效、可伸缩的方式进行处理的。Hadoop 是可靠的,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对...