>[success] # uniq -- 去重 ~~~ 1.'uniq' -- 去掉相邻的重复行,如果想去掉所有的重复内容需要最好先排序在去重 ~~~ >[danger] ##### 参数 ~~~ 1.'c' -- 在每一行前加上表示相应行目出现次数的前缀编号 2.'d' -- 只输出重复的行 3.'u' -- 只显示出现过一次的行 ~~~ >[info] ## 案例 ~~~ 1.文件内容如下: 1111 2222 1111 1111 3333 4444 2222 ~~~ >[danger] ##### 直接去重 ~~~ 1. 'uniq 文件名' -- 下面输出内容可以看到只有相邻的去重 输出结果: 1111 2222 1111 3333 4444 2222 2.'sort 文件名 | uniq' -- 经过排序后过滤现实内容 输出结果: 1111 2222 3333 4444 ~~~ >[danger] ##### 现实出现次数 -- c ~~~ 1.'sort uniqtxt | uniq -c' 输出结果: 3 1111 2 2222 1 3333 1 4444 ~~~ >[danger] ##### 'u' -- 只显示出现过一次的行 ~~~ 1.'sort uniqtxt | uniq -c -u' 输出结果: 1 3333 1 4444 ~~~ >[danger] ##### 只输出重复的行 -- d ~~~ 1.'sort uniqtxt | uniq -c -d' 输出结果: 3 1111 2 2222 ~~~