我是靠谱客的博主 激昂网络,最近开发中收集的这篇文章主要介绍hadoop深入研究:(六)——HDFS数据完整性数据完整性hdfs数据完整性,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

转载请注明出处:hadoop深入研究:(六)——HDFS数据完整性

数据完整性

IO操作过程中难免会出现数据丢失或脏数据,数据传输得量越大出错得几率越高。校验错误最常用得办法就是传输前计算一个校验和,传输后计算一个校验和,两个校验和如果不相同就说明数据存在错误,比较常用得错误校验码是CRC32.

hdfs数据完整性

hdfs写入的时候计算出校验和,然后每次读的时候再计算校验和。要注意的一点是,hdfs每固定长度就会计算一次校验和,这个值由io.bytes.per.checksum指定,默认是512字节。因为CRC32是32位即4个字节,这样校验和占用的空间就会少于原数据的1%。1%这个数字在hadoop中会经常看到。以后有时间会整理一份hadoop

最后

以上就是激昂网络为你收集整理的hadoop深入研究:(六)——HDFS数据完整性数据完整性hdfs数据完整性的全部内容,希望文章能够帮你解决hadoop深入研究:(六)——HDFS数据完整性数据完整性hdfs数据完整性所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(31)

评论列表共有 0 条评论

立即
投稿
返回
顶部