`
ma3310
  • 浏览: 16040 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

hadoop 不能正常启动

阅读更多
启动 hadoop 后,datanode 的 log 里一直报错,提示连不上 namenode。

2011-03-30 00:14:00,582 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 0 time(s).
2011-03-30 00:14:01,583 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 1 time(s).
2011-03-30 00:14:02,585 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 2 time(s).
2011-03-30 00:14:03,586 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 3 time(s).
2011-03-30 00:14:04,588 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 4 time(s).
2011-03-30 00:14:05,590 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 5 time(s).
2011-03-30 00:14:06,591 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 6 time(s).
2011-03-30 00:14:07,593 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 7 time(s).
2011-03-30 00:14:08,594 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 8 time(s).
2011-03-30 00:14:09,596 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 9 time(s).
2011-03-30 00:14:09,597 INFO org.apache.hadoop.ipc.RPC: Server at uec-fe/16.157.63.10:9000 not available yet, Zzzzz...

经过测试,在 namenode 上能连接 9000 端口。推测 hadoop 启动 ipc server 时只绑定在本地地址上。修改 /etc/hosts,把与 hostname 相关的配置删除后,hadoop 成功启动。
分享到:
评论
1 楼 chenlinping 2011-03-31  
猜想:
/etc/hosts文件中有集群中所有机器的ip dns配置很重要。
执行一下hostname命令,看下是否正确。

相关推荐

    jps判断hadoop启动是否成功

    jps判断hadoop启动是否成功;分别对master和slave进行了判断。jps不是hadoop的什么命令,是java的命令,所以直接执行就行了。

    基于hadoop2.85的hive2.3.4安装

    另外还需要说明的是,虽然修改配置文件并不需要你已经把hadoop跑起来,但是本文中用到了hadoop命令,在执行这些命令前你必须确保hadoop是在正常跑着的,而且启动hive的前提也是需要hadoop在正常跑着,所以建议你先将...

    Hadoop大数据期末考试重点

    Hadoop大数据期末考试重点,选择、判断、简答

    hadoop1.0 Failed to set permissions of path 解决方案

    :Windows环境下的Hadoop TaskTracker无法正常启动 包括0.20.204、0.20.205、1.0.0版本 网上的解决方案 五花八门 有的说用 0.20.204一下版本 我采用修改FileUtil类 checkReturnValue方法代码 重新编译 替换原来的...

    hadoop-eclipse-plugin插件和hadoop.dll和winutile.exe.zip

    基于w10+jdk1.8.0_162+eclipse2020-03+hadoop-2.9.2,亲测可以正常使用,注意如果eclipse已经启动过要从新加载下插件。

    hadoop2.x集群搭建.txt(hdfs和yarn貌似正常,但mapreduce 提交job执行失败,请看我的另一个资源,另一个搭建是成功的)

    hadoop 搭建过程

    Hadoop的安装与配置及示例wordcount的运行

    2. 查看机器间是否能相互通信:使用ping命令来检查机器之间的网络连接是否正常。 3. SSH设置及关闭防火墙:Fedora默认启动sshd服务,我们可以使用service sshd status命令来检查sshd服务的状态。如果没有启动,可以...

    Hadoop实战手册

    hadoop-env.sh 环境变量13#Hadoop Common组件 配置 core-site.xml13#HDFS NameNode,DataNode组建配置 hdfs-site.xml14#配置MapReduce - JobTracker TaskTracker 启动配置15#Hadoop单机系统,启动执行和异常检查17#...

    实验一Hadoop大数据集群搭建

    5. 成功启动集群,且可通过jps命令查看各个虚拟机上活跃的节点(与实验要求一致),并可以正常访问对应的web页面。 以上实验要求均完美实现,且对每一步操作做了详细的截图和文字记录,细致入微。

    Hadoop之高可用集群的安装.docx

    1、理解并掌握在完全分布模式的整合平台中Hadoop的高可用完全分布模式的安装与验证 2、完成Hadoop的高可用完全分布模式的...3、Hadoop的相关服务进程能够正常启动 4、HDFS能够正常使用 MapReduce示例程序能够正常运行

    hadoop分布式配置.docx

    利用sbin/start-dfs.sh 或者sbin/start-all.sh查看hadoop平台是否搭建成功,搭建成功提示,需要在三台虚拟机分别查看进程是否启动正常,其中,master节点启动三个进程(包括jps)

    CDH集群NodeManager无法正常启动的解决方法

    2021-05-11 16:51:52,925 FATAL org.apache.hadoop.yarn.server.nodemanager.NodeManager: Error starting NodeManager org.apache.hadoop.yarn.exceptions.YarnRuntimeException: Failed to initialize container ...

    kafka-hadoop-spark

    Kafka工作并启动后,可以通过以下方式运行Kafka Producer:进入文件夹“ IOT-Platform / platform / services / kafka-hadoop-spark / GpsKafkaProducer”并执行“ mvn jetty:run” 笔记: 您可以使用以下命令...

    HadoopNameNode高可用(HighAvailability)实现解析

    因为NameNode保存了整个HDFS的元数据信息,一旦NameNode挂掉,整个HDFS就无法访问,同时Hadoop生态系统中依赖于HDFS的各个组件,包括MapReduce、Hive、Pig以及HBase等也都无法正常工作,并且重新启动NameNode和进行...

    大数据面试题.doc

    Hadoop 自身具有严格的权限管理和安全措施保障集群正常运行。( ) 24. Slave 节点要存储数据,所以它的磁盘越大越好。( ) 25. hadoop dfsadmin –report 命令用于检测 HDFS 损坏块。( ) 26. Hadoop 默认调度器策略为...

    大数据面试题(1).doc

    Hadoop 自身具有严格的权限管理和安全措施保障集群正常运行。( ) 24. Slave 节点要存储数据,所以它的磁盘越大越好。( ) 25. hadoop dfsadmin –report 命令用于检测 HDFS 损坏块。( ) 26. Hadoop 默认调度器策略为...

    HBase 1.x版本安装部署

    2.Hadoop 集群的正常部署并启动: $ ~/opt/hadoop-2.7.2/sbin/start-dfs.sh $ ~/opt/hadoop-2.7.2/sbin/start-yarn.sh 3.HBase 的解压 tar -zxf /softwares/hbase-1.3.1-bin.tar.gz -C ~/opt/ 4.HBase 的配置文件...

    大数据平台技术实训报告.docx

    5、测试网络连接是否正常 6、免密登录 7、JDK与Hadoop的安装 8、Hadoop集群配置 三、集群从节点jdk和hadoop的实现 1、将集群主节点的配置文件分发到其他子节点上 四、集群主节点的格式化与启动 1、格式化文件...

    大数据面试题.docx

    23. Hadoop 自身具有严格的权限管理和安全措施保障集群正常运行。( ) 大数据面试题全文共16页,当前为第4页。 24. Slave 节点要存储数据,所以它的磁盘越大越好。( ) 25. hadoop dfsadmin –report 命令用于检测 ...

Global site tag (gtag.js) - Google Analytics