溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

shell兩個文件去重的方式

發布時間:2021-09-03 10:05:28 來源:億速云 閱讀:187 作者:chen 欄目:開發技術

本篇內容主要講解“shell兩個文件去重的方式”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“shell兩個文件去重的方式”吧!

前言

大家都知道shell在文本處理上確有極大優勢,比如多文本合并、去重等,但是最近遇到了一個難搞的問題,即兩個大數據量文件去重。下面來看看詳細的介紹吧。

要求 

有txt文件A.txt和B.txt。

其中A為關鍵詞和搜索量,以逗號分隔,約90萬行。

B為關鍵詞,約400萬行。

需要從A中找出與B重復的關鍵詞。

我試了N種姿勢,但結果都不盡人意,最奇怪的是有些方法對小數據量的測試文件有用,一旦用在A與B上就會失敗,真叫人百思不得其解。

姿勢一:

awk -F, '{print $1}' A >keywords.txt
cat keywords.txt B.txt | sort | uniq -d
 
#先從A.txt種取出關鍵詞,然后與B.txt一起打開,用sort排序,uniq -d 取出重復的行

姿勢二:

awk -F, '{print $1}' A >keywords.txt
#照例先取出關鍵詞
 
comm -1 -2 keywords.txt B.txt
#利用comm命令,顯示兩個文件都存在的行

姿勢三:

awk -F, '{print $1}' A >keywords.txt
for i in `cat keywords.txt`
do
  A=`egrep -c "^$i$" B.txt`
  if [ $A != 0 ]
  then
    echo $i >>重復關鍵詞.txt
  fi
done
 
#這種姿勢就稍微復雜點
#首先取出關鍵詞,然后利用for循環逐個去B.txt里面匹配(注意正則寫法^$i$),如果匹配到的結果數不為0,說明這個關鍵詞是重復的,然后輸出
#這種方法的優點是穩妥,缺點是效率太TM低了,90萬個詞逐一與400萬詞匹配,shell默認又沒有多線程,耗時太長。

姿勢四:

awk -F, '{print $1}' A >keywords.txt
cat keywords.txt B.txt | awk '!a[$1]++'
 
#這個方法的原理其實我不太懂,awk命令實在太強大太高深了,但是這種方法又簡潔又快速

其實還有一種grep -v 、grep -f 的方法,但是我沒有試過,所以不在這里列出了。

到此,相信大家對“shell兩個文件去重的方式”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女