启动 hadoop 后,datanode 的 log 里一直报错,提示连不上 namenode。
2011-03-30 00:14:00,582 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 0 time(s).
2011-03-30 00:14:01,583 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 1 time(s).
2011-03-30 00:14:02,585 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 2 time(s).
2011-03-30 00:14:03,586 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 3 time(s).
2011-03-30 00:14:04,588 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 4 time(s).
2011-03-30 00:14:05,590 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 5 time(s).
2011-03-30 00:14:06,591 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 6 time(s).
2011-03-30 00:14:07,593 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 7 time(s).
2011-03-30 00:14:08,594 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 8 time(s).
2011-03-30 00:14:09,596 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: uec-fe/16.157.63.10:9000. Already tried 9 time(s).
2011-03-30 00:14:09,597 INFO org.apache.hadoop.ipc.RPC: Server at uec-fe/16.157.63.10:9000 not available yet, Zzzzz...
经过测试,在 namenode 上能连接 9000 端口。推测 hadoop 启动 ipc server 时只绑定在本地地址上。修改 /etc/hosts,把与 hostname 相关的配置删除后,hadoop 成功启动。
分享到:
相关推荐
jps判断hadoop启动是否成功;分别对master和slave进行了判断。jps不是hadoop的什么命令,是java的命令,所以直接执行就行了。
另外还需要说明的是,虽然修改配置文件并不需要你已经把hadoop跑起来,但是本文中用到了hadoop命令,在执行这些命令前你必须确保hadoop是在正常跑着的,而且启动hive的前提也是需要hadoop在正常跑着,所以建议你先将...
Hadoop大数据期末考试重点,选择、判断、简答
:Windows环境下的Hadoop TaskTracker无法正常启动 包括0.20.204、0.20.205、1.0.0版本 网上的解决方案 五花八门 有的说用 0.20.204一下版本 我采用修改FileUtil类 checkReturnValue方法代码 重新编译 替换原来的...
基于w10+jdk1.8.0_162+eclipse2020-03+hadoop-2.9.2,亲测可以正常使用,注意如果eclipse已经启动过要从新加载下插件。
hadoop 搭建过程
2. 查看机器间是否能相互通信:使用ping命令来检查机器之间的网络连接是否正常。 3. SSH设置及关闭防火墙:Fedora默认启动sshd服务,我们可以使用service sshd status命令来检查sshd服务的状态。如果没有启动,可以...
hadoop-env.sh 环境变量13#Hadoop Common组件 配置 core-site.xml13#HDFS NameNode,DataNode组建配置 hdfs-site.xml14#配置MapReduce - JobTracker TaskTracker 启动配置15#Hadoop单机系统,启动执行和异常检查17#...
5. 成功启动集群,且可通过jps命令查看各个虚拟机上活跃的节点(与实验要求一致),并可以正常访问对应的web页面。 以上实验要求均完美实现,且对每一步操作做了详细的截图和文字记录,细致入微。
1、理解并掌握在完全分布模式的整合平台中Hadoop的高可用完全分布模式的安装与验证 2、完成Hadoop的高可用完全分布模式的...3、Hadoop的相关服务进程能够正常启动 4、HDFS能够正常使用 MapReduce示例程序能够正常运行
利用sbin/start-dfs.sh 或者sbin/start-all.sh查看hadoop平台是否搭建成功,搭建成功提示,需要在三台虚拟机分别查看进程是否启动正常,其中,master节点启动三个进程(包括jps)
2021-05-11 16:51:52,925 FATAL org.apache.hadoop.yarn.server.nodemanager.NodeManager: Error starting NodeManager org.apache.hadoop.yarn.exceptions.YarnRuntimeException: Failed to initialize container ...
Kafka工作并启动后,可以通过以下方式运行Kafka Producer:进入文件夹“ IOT-Platform / platform / services / kafka-hadoop-spark / GpsKafkaProducer”并执行“ mvn jetty:run” 笔记: 您可以使用以下命令...
因为NameNode保存了整个HDFS的元数据信息,一旦NameNode挂掉,整个HDFS就无法访问,同时Hadoop生态系统中依赖于HDFS的各个组件,包括MapReduce、Hive、Pig以及HBase等也都无法正常工作,并且重新启动NameNode和进行...
Hadoop 自身具有严格的权限管理和安全措施保障集群正常运行。( ) 24. Slave 节点要存储数据,所以它的磁盘越大越好。( ) 25. hadoop dfsadmin –report 命令用于检测 HDFS 损坏块。( ) 26. Hadoop 默认调度器策略为...
Hadoop 自身具有严格的权限管理和安全措施保障集群正常运行。( ) 24. Slave 节点要存储数据,所以它的磁盘越大越好。( ) 25. hadoop dfsadmin –report 命令用于检测 HDFS 损坏块。( ) 26. Hadoop 默认调度器策略为...
2.Hadoop 集群的正常部署并启动: $ ~/opt/hadoop-2.7.2/sbin/start-dfs.sh $ ~/opt/hadoop-2.7.2/sbin/start-yarn.sh 3.HBase 的解压 tar -zxf /softwares/hbase-1.3.1-bin.tar.gz -C ~/opt/ 4.HBase 的配置文件...
5、测试网络连接是否正常 6、免密登录 7、JDK与Hadoop的安装 8、Hadoop集群配置 三、集群从节点jdk和hadoop的实现 1、将集群主节点的配置文件分发到其他子节点上 四、集群主节点的格式化与启动 1、格式化文件...
23. Hadoop 自身具有严格的权限管理和安全措施保障集群正常运行。( ) 大数据面试题全文共16页,当前为第4页。 24. Slave 节点要存储数据,所以它的磁盘越大越好。( ) 25. hadoop dfsadmin –report 命令用于检测 ...