91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python jieba中文分詞與詞頻統計的操作案例

發布時間:2021-03-09 13:53:30 來源:億速云 閱讀:237 作者:小新 欄目:開發技術

這篇文章給大家分享的是有關Python jieba中文分詞與詞頻統計的操作案例的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

Python主要用來做什么

Python主要應用于:1、Web開發;2、數據科學研究;3、網絡爬蟲;4、嵌入式應用開發;5、游戲開發;6、桌面應用開發。

直接看代碼吧:

#! python3
# -*- coding: utf-8 -*-
import os, codecs
import jieba
from collections import Counter
 
def get_words(txt):
 seg_list = jieba.cut(txt)
 c = Counter()
 for x in seg_list:
  if len(x)>1 and x != '\r\n':
   c[x] += 1
 print('常用詞頻度統計結果')
 for (k,v) in c.most_common(100):
  print('%s%s %s %d' % (' '*(5-len(k)), k, '*'*int(v/3), v))
 
if __name__ == '__main__':
 with codecs.open('19d.txt', 'r', 'utf8') as f:
  txt = f.read()
 get_words(txt)

樣本:十九大報告全文

常用詞頻度統計結果
  發展 ********************************************************************** 212
  中國 ******************************************************** 168
  人民 **************************************************** 157
  建設 ************************************************* 148
 社會主義 ************************************************ 146
  堅持 ******************************************* 130
  國家 ****************************** 90
  全面 ***************************** 88
  制度 *************************** 83
  實現 *************************** 83
  推進 *************************** 81
  政治 ************************** 80
  社會 ************************** 80
  特色 ************************** 79
  加強 *********************** 71
  體系 ********************** 68
  文化 ********************** 66
  我們 ********************* 64
  時代 ********************* 63
  必須 ******************** 61
  經濟 ******************* 59
  偉大 ******************* 58
  完善 ***************** 51
  我國 **************** 50
  推動 *************** 47
 現代化 *************** 47
  安全 *************** 46
  更加 ************** 44
  民主 ************** 44

補充:jieba讀取txt文檔并進行分詞、詞頻統計,輸出詞云圖

代碼實現

# 庫的引用
import jieba
import matplotlib as mpl
import matplotlib.pyplot as plt
from wordcloud import WordCloud
#定義一個空字符串
final = ""
#文件夾位置
filename = r"D:\python\pra\推薦系統1-500.txt"
 
#打開文件夾,讀取內容,并進行分詞
with open(filename,'r',encoding = 'utf-8') as f:
  for line in f.readlines():
    word = jieba.cut(line)
    for i in word:
      final = final + i +" "

運行結果

Python jieba中文分詞與詞頻統計的操作案例

# 圖云打印
word_pic = WordCloud(font_path = r'C:\Windows\Fonts\simkai.ttf',width = 2000,height = 1000).generate(final)
plt.imshow(word_pic)
#去掉坐標軸
plt.axis('off')
#保存圖片到相應文件夾
plt.savefig(r'D:\python\pra\6.png')

圖云輸出圖

Python jieba中文分詞與詞頻統計的操作案例

感謝各位的閱讀!關于“Python jieba中文分詞與詞頻統計的操作案例”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

广饶县| 龙南县| 温宿县| 勐海县| 鹤岗市| 汪清县| 龙岩市| 右玉县| 桓仁| 高陵县| 洛扎县| 工布江达县| 金门县| 射阳县| 阜城县| 徐闻县| 涟水县| 正宁县| 池州市| 花莲市| 锡林郭勒盟| 泸水县| 通许县| 井研县| 黄陵县| 泽普县| 辽阳县| 永嘉县| 卓资县| 东乌珠穆沁旗| 漳浦县| 阳谷县| 高淳县| 淮南市| 本溪| 安多县| 武鸣县| 庆安县| 乌拉特中旗| 漠河县| 祁连县|