hdfs获取文件信息错误

  • Post author:
  • Post category:其他


1 这边使用云服务其搭建的hadoop集群

2 再通过api的方式对创建文件和查询文件信息是没有问题的,但是再读取文件的时候出现了异常信息,信息如下:WARN org.apache.hadoop.hdfs.DFSClient – Failed to connect to /

192.168.16.4:9866

for file /a.txt for block BP-1032362238-192.168.32.5-1659352855757:blk_1073741863_1039, add to deadNodes and continue.

3 分析:上面标红的地址是dataNode的一个节点,很明显这是一个个内网的地址,因此再我本地是访问不到的

4 产生原因:因为我们再本地客户端访问hdfs集群的时候,首先访问的是nameNode节点,获取到数据真实的存放位置,

(92.168.16.4:9866 for file /a.txt),然后我们本地客户端会根据这个位置对数据进行访问,所以就访问不到。


5 解决方式:通过对

Configuration进行设置,让nameNode返回给我们的是服务器名称,而不是内网地址,这样我们客户端拿到服务器名称的时候,通过配置hosts文件解析就可以访问服务器dataNode信息了

host文件配置

xxxxxxx(云服务器公网地址) node01

xxxxxxx(云服务器公网地址) node02

xxxxxxx(云服务器公网地址) node03

  Configuration configuration = new Configuration();
      configuration.set("dfs.client.use.datanode.hostname","true");



版权声明:本文为wang1hong2lu3原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。