论坛首页 Java企业应用论坛

Hadoop的pid配置

浏览 4294 次
精华帖 (0) :: 良好帖 (0) :: 新手帖 (0) :: 隐藏帖 (0)
作者 正文
   发表时间:2008-12-22   最后修改:2008-12-22

今天发现一个问题,当hadoop集群运行一段时间以后,无法停止服务。执行stop-all的时候提示 no tasktracker to stop ,no datanode to stop。而当我把所有节点手动kill掉以后,执行start-all和stop-all均没有问题。在邮件群组里问 了一下,最后结论如下:

stop-all.sh会调用stop-mapred.sh和 stop-dfs.sh去停止jobtracker, tasktrackers; namenode, datanodes。

Jobtracker和namenode的停止是在本地通过调用hadoop-daemon完成的,而tasktracker,和datanode 的停止是通过调用hadoop-daemons来完成的。Hadoop-daemon实质上是ssh到每一个slave去执行一个当地的hadoop- daemon命令,比如:hadoop-daemon stop datanoade。

Hadoop-daemon  stop command会通过kill -0 `cat command.pid` 来测试进程是否存在,如果这个测试中有错误产生,就会报”no command to stop ”。

  • 可能原因: pid 文件丢了,导致 hadoop-daemon.sh stop XXX 时找不到进程号。
  • 解决办法:默认 pid 文件放在 /tmp 目录下,不太安全。可以在 conf/hadoop-env.sh 里设置 HADOOP_PID_DIR 境变量改变 pid 文件的存放目录。

最后我增加上了pid的路径配置,这下应该没有问题了



原文出处:http://wuma.koubei.com/blog/userdetail/8231a5007a4c4978a076918216dbbc2a

 

论坛首页 Java企业应用版

跳转论坛:
Global site tag (gtag.js) - Google Analytics