主要就是uniq只对相邻的重复进行去重,
只要下一条是不同的序列就马上从头开始。
解决方案:在去重前先对每行字符串进行排序。
数字的话可以sort -n按数字大小排序,得出来的结果更好看。
grep 'something' a.txt |sort |uniq
如果不这么做的话,比如下面内容的文件,
a
a
b
a
a
去重出来结果会是
a
b
a
本文介绍了如何通过在使用uniq去重前对文件内容(如字符串)进行排序,避免相邻重复项的混淆。通过实例说明了对数字的排序操作,并强调了对非数字数据进行类似处理的重要性。解决了一个实际问题,即不排序可能导致的去重错误。
主要就是uniq只对相邻的重复进行去重,
只要下一条是不同的序列就马上从头开始。
解决方案:在去重前先对每行字符串进行排序。
数字的话可以sort -n按数字大小排序,得出来的结果更好看。
grep 'something' a.txt |sort |uniq
如果不这么做的话,比如下面内容的文件,
a
a
b
a
a
去重出来结果会是
a
b
a
您可能感兴趣的与本文相关的镜像
Stable-Diffusion-3.5
Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率
5877

被折叠的 条评论
为什么被折叠?