您好,登錄后才能下訂單哦!
這篇文章主要介紹了python如何實現統計漢字/英文單詞數的正則表達式,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
思路
?使用正則式 "(?x) (?: [\w-]+ | [\x80-\xff]{3} )"獲得utf-8文檔中的英文單詞和漢字的列表。
?使用dictionary來記錄每個單詞/漢字出現的頻率,如果出現過則+1,如果沒出現則置1。
?將dictionary按照value排序,輸出。
源碼
#!/usr/bin/python # -*- coding: utf-8 -*- # #author: rex #blog: http://iregex.org #filename counter.py #created: Mon Sep 20 21:00:52 2010 #desc: convert .py file to html with VIM. import sys import re from operator import itemgetter def readfile(f): with file(f,"r") as pFile: return pFile.read() def divide(c, regex): #the regex below is only valid for utf8 coding return regex.findall(c) def update_dict(di,li): for i in li: if di.has_key(i): di[i]+=1 else: di[i]=1 return di def main(): #receive files from bash files=sys.argv[1:] #regex compile only once regex=re.compile("(?x) (?: [\w-]+ | [\x80-\xff]{3} )") dict={} #get all words from files for f in files: words=divide(readfile(f), regex) dict=update_dict(dict, words) #sort dictionary by value #dict is now a list. dict=sorted(dict.items(), key=itemgetter(1), reverse=True) #output to standard-output for i in dict: print i[0], i[1] if __name__=='__main__': main()
Tips
由于使用了files=sys.argv[1:] 來接收參數,因此./counter.py file1 file2 ...可以將參數指定的文件的詞頻累加計算輸出。
可以自定義該程序。例如,
?使用
regex=re.compile("(?x) ( [\w-]+ | [\x80-\xff]{3} )") words=[w for w in regex.split(line) if w]
這樣得到的列表是包含分隔符在內的單詞列表,方便于以后對全文分詞再做操作。
?以行為單位處理文件,而不是將整個文件讀入內存,在處理大文件時可以節約內存。
?可以使用這樣的正則表達式先對整個文件預處理一下,去掉可能的html tags: content=re.sub(r"<[^>]+","",content),這樣的結果對于某些文檔更精確。
感謝你能夠認真閱讀完這篇文章,希望小編分享的“python如何實現統計漢字/英文單詞數的正則表達式”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業資訊頻道,更多相關知識等著你來學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。