您好,登錄后才能下訂單哦!
本篇內容介紹了“有哪些Shell腳本去重的方法”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
測試文件
代碼如下:
[root@bogon ~]# cat >test
jason
jason
jason
fffff
jason
按 Ctr + D保存
1、sort -u
代碼如下:
[root@bogon ~]# sort -u test
fffff
jason
2、uniq
代碼如下:
[root@bogon ~]# uniq test
jason
fffff
jason
由此可見,uniq需要先排序后才能去重
3、sort、管道和uniq結合運用
去除重復并保留一份重復的數據
代碼如下:
[root@bogon ~]# sort test|uniq
fffff
jason
去除所有重復的行(不保留重復的行),并計算行數
代碼如下:
[root@bogon ~]# sort test|uniq -uc
1 fffff
找出所有重復的行,并計算行數
代碼如下:
[root@bogon ~]# sort test|uniq -dc
4 jason
根據某個字段去重
將原有數據改為
代碼如下:
[root@bogon ~]# more test
jason 1
jason 2
jason 1
fffff 2
jason 3
[root@bogon ~]# sort -k 1,1 -u test
fffff 2
jason 1
man sort查看sort的用法,-k參數是這么描述的:
代碼如下:
-k, --key=POS1[,POS2]
start a key at POS1 (origin 1), end it at POS2 (default end of line)
“有哪些Shell腳本去重的方法”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。