jieba庫是一個用于中文分詞的工具庫。下面是一些常見的jieba庫函數用法示例:
import jieba
# 全模式分詞
text = "我愛自然語言處理"
result = jieba.cut(text, cut_all=True)
print("/".join(result)) # 輸出:我/愛/自然/自然語言/語言/處理
# 精確模式分詞
result = jieba.cut(text, cut_all=False)
print("/".join(result)) # 輸出:我/愛/自然語言處理
# 默認模式分詞(精確模式的別名)
result = jieba.cut(text)
print("/".join(result)) # 輸出:我/愛/自然語言處理
# 搜索引擎模式分詞
result = jieba.cut_for_search(text)
print("/".join(result)) # 輸出:我/愛/自然/語言/處理
import jieba
text = "我是自然語言處理工程師"
result = jieba.cut(text)
print("/".join(result)) # 輸出:我/是/自然/語言/處理/工程師
# 添加自定義詞典
jieba.add_word("自然語言處理")
result = jieba.cut(text)
print("/".join(result)) # 輸出:我/是/自然語言處理/工程師
# 添加自定義詞典(指定詞頻)
jieba.add_word("自然語言處理", freq=100)
result = jieba.cut(text)
print("/".join(result)) # 輸出:我/是/自然語言處理/工程師
import jieba.analyse
text = "我是一名自然語言處理工程師,對文本處理很感興趣。"
keywords = jieba.analyse.extract_tags(text, topK=3)
print(keywords) # 輸出:['自然語言處理', '文本處理', '感興趣']
以上是jieba庫的一些常見用法,更多詳細的函數用法可以參考jieba官方文檔。