[Hadoop2.x] Hadoop运行一段时间后,stop-dfs等操作失效原因及解决方法

  • Post author:
  • Post category:其他


长时间运行Hadoop之后,如果运行

stop-dfs.sh(或stop-all.sh)

,会发现有以下类似错误:


Stopping namenodes on [localhost]

localhost: no namenode to stop

localhost: no datanode to stop

Stopping secondary namenodes [localhost]

localhost: no secondarynamenode to stop

这个时候访问hadoop依然有效,查看文件系统,通过50070端口依然能访问,start-all后再stop-all也没有任何效果,等于这个时候

完全无法控制hadoop

了。

出现这个问题的

最常见原因

是:

hadoop在stop的时候依据的是datanode上的mapred和dfs进程号。



默认的进程号保存在/tmp下



Linux默认会每隔一段时间(一般是一个月或者7天左右)去删除这个目录下的文件

。因此删掉 hadoop-root-namenode.pid, hadoop-root-namenode.pid, hadoop-root-secondarynamenode.pid等pid文件后,namenode自然就找不到datanode上的这两个进程了。

另外还有两个原因可能引起这个问题:

  1. 环境变量 $HADOOP_PID_DIR 在你启动hadoop后改变了
  2. 用另外的用户身份执行 stop-dfs.sh 等命令


解决方法:


永久解决方法:

修改

$HADOOP_HOME/etc/hadoop/hadoop-env.sh

文件,将


export HADOOP_PID_DIR=${HADOOP_PID_DIR}





${HADOOP_PID_DIR}


路径修改为你自己指定目录,这样Hadoop会把相关pid进程文件保存在指定目录,避免被Linux自动删除。例如:



export HADOOP_PID_DIR=/usr/local/hadoop/pids/


发现问题后的解决方法:

这个时候通过脚本已经无法停止进程了,不过我们可以手工停止,通过 ps -ef | grep Java | grep hadoop找到hadoop的所有进程号强制杀掉(kill -9 进程号),然后再执行 start-dfs.sh, start-yarn.sh 等命令启动hadoop,以后 stop-dfs.sh 等命令就不会生效了。


转载于:https://my.oschina.net/jsan/blog/776089