You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
2.1 KiB
2.1 KiB
一、概述
datanode是负责当前节点上的数据的管理,具体目录内容是在初始阶段自动创建的,保存的文件夹位置由hdfs-site.xml文件配置选项{dfs.datanode.data.dir}决定。
- datanode以数据块的形式存储HDFS文件
- datanode响应HDFS 客户端读写请求
- datanode周期性向NameNode汇报心跳信息,数据块信息,缓存数据块信息
- 一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。
- DataNode启动后向NameNode注册,通过后,周期性(1小时)的向NameNode上报所有的块信息。
- DataNode与NameNode之间有一个心跳事件,心跳是每3秒一次,心跳返回结果带有NameNode给该DataNode的命令,如果超过10分钟没有收到某个DataNode的心跳,则认为该节点不可用。
- 集群运行中可以安全加入和退出一些机器
二、数据完整性校验
- 当DataNode读取Block的时候,它会计算CheckSum(校验和)
- 如果计算后的CheckSum,与Block创建时值不一样,说明Block已经损坏
- Client读取其他DataNode上的Block
- DataNode在其文件创建后周期验证CheckSum,如上图
三、掉线时参数设置
DataNode进程死亡或者网络故障造成DataNode无法与NameNode通信时的TimeOut参数设置
- NameNode不会立即把该节点判断为死亡,要经过一段时间,这段时间称作超时时长
- HDFS默认的超时时长为10分钟+30秒
- 超时时长的计算公式为:
# dfs.namenode.heartbeat.recheck-interval默认为300000ms,dfs.heartbeat.interval默认为5s
TimeOut = 2 * dfs.namenode.heartbeat.recheck-interval + 10 * dfs.heartbeat.interval
实际开发的时候,可以根据自己服务器的情况进行调整,比如服务器性能比较低,那么可以适当的把时间调长;如果服务器性能很好,那么可以适当缩短。