当前位置: 首页 > article >正文

【Hadoop|HDFS篇】DataNode

1. DataNode的工作机制

1)一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。

2)DataNode启动后向NameNode注册,通过后,周期性(6h)的向NameNode上报所有块信息。

DN向NN汇报当前解读信息的时间间隔,默认6小时。

DN扫描自己节点块信息列表的时间,默认为6小时。

3)心跳是每3s一次,心跳返回的结果带有NameNode给该DataNode的命令如复制块数据到另一台机器上,或删除某个数据块,如果超过10分钟没收到某个DataNode的心跳,NameNode认为该DataNode挂掉了。信息不会存储在该DataNode上了。

如图:

我把hadoop104这台机器停掉了,超过了10分种加三十秒没向hadoop102发送心跳,NameNode则认为我这台机器挂掉了。以后Block不会存储在这个节点上了。但能不能恢复呢。是可以的。开启hadoop104并输入命令hdfs --daemon start datanode.

2. 数据的完整性

思考:如果电脑磁盘里面存储的数据是控制高铁信号灯的红灯信号(1)和绿灯信号(0).但是存储该数据的磁盘坏了,一直显示是绿灯,是否很危险呢?同理DataNode节点上的数据损坏了,但没有发现,是否也很危险呢?该如何解决呢?

如下是DataNode节点保证数据完整性的方法:

  • 当DataNode读取Block时,它会计算CheckSum校验和。
  • 如果计算后的校验和与Block创建的时候的值不一样,说明Block已经损坏。
  • Client读取其他DataNode上的Block。
  • 常见的校验算法crc(32),md5(128),shal(160).
  • DataNode在其文件创建后周期验证CheckSum。

3. DataNode掉线时参数设置

1. DataNode进程死亡或者网络故障造成DataNode无法与NameNode通信。

2. NameNode不会立即把该节点判定为死亡,要经过一段时间,这段时间暂停称作超时时长。

3. HDFS默认的超时时长为10分钟+30s。

如果定义超时时间为TimeOut,则超时时长的计算公式为:

TimeOut = 2*dfs.namenode.heartbeat.recheck-interval + 10*dfs.heartbeat.interval。

而默认的dfs.namenode.heartbeat.recheck-interval大小为5分钟,dfs.heartbeat.interval默认为3s。

绿色框框的表示2s前向NameNode发送心跳。


http://www.kler.cn/a/293502.html

相关文章:

  • 封装一个省市区的筛选组件
  • C语言入门到精通(第六版)——第十六章
  • Llama微调测试记录
  • Spring高手之路26——全方位掌握事务监听器
  • flutter 发版的时候设置版本号
  • 搭建深度学习开发环境
  • 梯度弥散问题及解决方法
  • C++ Dll 库 的创建与使用方法记录
  • 打造安心宠物乐园:EasyCVR平台赋能猫咖/宠物店的智能视频监控解决方案
  • Linux——进程概念
  • 数据结构(邓俊辉)学习笔记】排序 2——快速排序:性能分析
  • springboot项目引入Sentinel熔断
  • SpringBoot和Mybatis框架怎么防止SQL注入
  • 轴承知识大全,详细介绍(附3D图纸免费下载)
  • Codeforces Round 970 (Div. 3)(ABCDEF)
  • LLVM IR指令VM混淆分析
  • 【LeetCode面试150】——205同构字符串
  • 解决解压缩时的错误提示 “无法成功完成操作, 因为文件包含病毒或者潜在垃圾文件“
  • 论文解读 | KDD2024 演化图上的森林矩阵快速计算
  • 【OpenCV1】虚拟环境的使用、opencv的使用、图像和视频的创建和显示
  • 政府招商引资管理数字化平台:渠道、意向客户、项目管理、招商载体、绩效一体化管理平台
  • Spring MVC思想 实践开发 核心组件 流程分析
  • 【go-zero】win启动rpc服务报错 panic: context deadline exceeded
  • 设计模式学习-命令模式
  • HTTP 方法
  • Redis 的内存淘汰策略详解