长时间运行Hadoop之后,如果运行
stop-dfs.sh(或stop-all.sh)
,会发现有以下类似错误:
Stopping namenodes on [localhost]
localhost: no namenode to stop
localhost: no datanode to stop
Stopping secondary namenodes [localhost]
localhost: no secondarynamenode to stop
这个时候访问hadoop依然有效,查看文件系统,通过50070端口依然能访问,start-all后再stop-all也没有任何效果,等于这个时候
完全无法控制hadoop
了。
出现这个问题的
最常见原因
是:
hadoop在stop的时候依据的是datanode上的mapred和dfs进程号。
而
默认的进程号保存在/tmp下
,
Linux默认会每隔一段时间(一般是一个月或者7天左右)去删除这个目录下的文件
。因此删掉 hadoop-root-namenode.pid, hadoop-root-namenode.pid, hadoop-root-secondarynamenode.pid等pid文件后,namenode自然就找不到datanode上的这两个进程了。
另外还有两个原因可能引起这个问题:
- 环境变量 $HADOOP_PID_DIR 在你启动hadoop后改变了
- 用另外的用户身份执行 stop-dfs.sh 等命令
解决方法:
永久解决方法:
修改
$HADOOP_HOME/etc/hadoop/hadoop-env.sh
文件,将
export HADOOP_PID_DIR=${HADOOP_PID_DIR}
的
${HADOOP_PID_DIR}
路径修改为你自己指定目录,这样Hadoop会把相关pid进程文件保存在指定目录,避免被Linux自动删除。例如:
export HADOOP_PID_DIR=/usr/local/hadoop/pids/
发现问题后的解决方法:
这个时候通过脚本已经无法停止进程了,不过我们可以手工停止,通过 ps -ef | grep Java | grep hadoop找到hadoop的所有进程号强制杀掉(kill -9 进程号),然后再执行 start-dfs.sh, start-yarn.sh 等命令启动hadoop,以后 stop-dfs.sh 等命令就不会生效了。
转载于:https://my.oschina.net/jsan/blog/776089