1 这边使用云服务其搭建的hadoop集群
2 再通过api的方式对创建文件和查询文件信息是没有问题的,但是再读取文件的时候出现了异常信息,信息如下:WARN org.apache.hadoop.hdfs.DFSClient – Failed to connect to /
192.168.16.4:9866
for file /a.txt for block BP-1032362238-192.168.32.5-1659352855757:blk_1073741863_1039, add to deadNodes and continue.
3 分析:上面标红的地址是dataNode的一个节点,很明显这是一个个内网的地址,因此再我本地是访问不到的
4 产生原因:因为我们再本地客户端访问hdfs集群的时候,首先访问的是nameNode节点,获取到数据真实的存放位置,
(92.168.16.4:9866 for file /a.txt),然后我们本地客户端会根据这个位置对数据进行访问,所以就访问不到。
5 解决方式:通过对
Configuration进行设置,让nameNode返回给我们的是服务器名称,而不是内网地址,这样我们客户端拿到服务器名称的时候,通过配置hosts文件解析就可以访问服务器dataNode信息了
host文件配置
xxxxxxx(云服务器公网地址) node01
xxxxxxx(云服务器公网地址) node02
xxxxxxx(云服务器公网地址) node03
Configuration configuration = new Configuration(); configuration.set("dfs.client.use.datanode.hostname","true");