下载了些图片,里面有少量重复的。写了个脚本,给每个文件算SHA-256,哈希值重复的就删掉。
import re, sys, os, hashlib
folder = 'C:\\XXX\\';
dicFile = {}
n = 0;
for filename in sorted(os.listdir(folder)):
path = folder + filename;
sig = hashlib.sha256(open(path, 'rb').read()).hexdigest()
if(sig not in dicFile):
dicFile[sig] = filename;
else:
print(filename + " is dupe with " + dicFile[sig]);
os.remove(path);
n = n + 1;
print("total deleted: " + str(n));

本文介绍了一种通过编写脚本来处理图片文件的方法,该方法利用SHA-256哈希算法来识别并删除重复的图片文件。脚本遍历指定目录下的所有文件,计算每个文件的SHA-256哈希值,并将哈希值与已知的哈希值进行比较,从而识别重复文件并进行删除。

被折叠的 条评论
为什么被折叠?



