Hadoop I/O操作 数据完整性保持

数据完整性

检测数据完整性的常见方法:在数据第一次引入系统时计算校验和(checksum),并在每一次通道传输时再次计算,比较两次校验和是否匹配,这只能检测数据是否有损坏,而不能修复数据

常见的错误检测码是CRC-32(32位循环冗余校验),任何大小的数据都计算获取32位大小的校验和

Hadoop ChecksumFileSystem使用CRC-32, Hadoop HDFS使用更有效的变体CRC-32C

HDFS数据完整性

1) dfs.bytes-pr-checksum指定每多少字节的数据计算一次校验和,默认512bytes,而CRC-32只占4bytes,存储开销不到1%

2) 写入

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值