您好,登錄后才能下訂單哦!
這篇文章主要介紹“python spaCy怎么使用”,在日常操作中,相信很多人在python spaCy怎么使用問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”python spaCy怎么使用”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
這些模型是spaCy的核心。這些模型使spaCy能夠執行一些與NLP相關的任務,例如詞性標記、命名實體識別和依存關系解析。
下面我列出了spaCy中的不同統計模型及其規范:
en_core_web_sm:英語多任務CNN,在OntoNotes上訓練,大小為11 MB
en_core_web_md:英語多任務CNN,在OntoNotes上訓練,并且使用Common Crawl上訓練的GLoVe詞嵌入,大小為91 MB
en_core_web_lg:英語多任務CNN,在OntoNotes上訓練,并且使用Common Crawl上訓練的GLoVe詞嵌入,大小為789 MB
導入這些模型非常容易。我們可以通過執行spacy.load(‘model_name’) 導入模型,如下所示:
import spacy nlp = spacy.load('en_core_web_sm')
使用spaCy時,文本字符串的第一步是將其傳遞給NLP對象。這個對象本質上是由幾個文本預處理操作組成的管道,輸入文本字符串必須通過這些操作。
如上圖所示,NLP管道有多個組件,如標記生成器、標簽器、解析器、ner等。因此,在處理輸入文本字符串之前,必須先通過所有這些組件。
讓我演示如何創建nlp對象:
import spacy nlp = spacy.load('en_core_web_sm') # 創建nlp對象 doc = nlp("He went to play basketball")
你可以使用以下代碼找出活動的管道組件:
nlp.pipe_names
輸出:['tagger','parser','ner']
如果您希望禁用管道組件并僅保持ner的運行,則可以使用下面的代碼禁用管道組件:
nlp.disable_pipes('tagger', 'parser')
讓我們再次檢查活動管道組件:
nlp.pipe_names
輸出:['ner']
當您只需要標記文本時,就可以禁用整個管道。標記化過程變得非常快。例如,可以使用以下代碼行禁用管道的多個組件:
nlp.disable_pipes('tagger', 'parser')
現在,讓我們練手。在本節中,你將學習使用spaCy執行各種NLP任務。我們將從流行的NLP任務開始,包括詞性標記、依存分析和命名實體識別。
在英語語法中,詞類告訴我們一個詞的功能是什么,以及如何在句子中使用。英語中常用的詞類有名詞、代詞、形容詞、動詞、副詞等。
詞性標注是自動將詞性標注分配給句子中所有單詞的任務。它有助于NLP中的各種下游任務,如特征工程、語言理解和信息提取。
在spaCy中執行POS標記是一個簡單的過程:
import spacy nlp = spacy.load('en_core_web_sm') # 創建nlp對象 doc = nlp("He went to play basketball") # 遍歷token for token in doc: # Print the token and its part-of-speech tag print(token.text, "-->", token.pos_)
輸出:
He –> PRON went –> VERB to –> PART play –> VERB basketball –> NOUN
因此,該模型正確識別了句子中所有單詞的POS標記。如果你對這些標記中的任何一個都不確定,那么您可以簡單地使用*spacy.explain()*來確定:
spacy.explain("PART")
輸出: ‘particle’
每個句子都有一個語法結構,通過依存句法分析,我們可以提取出這個結構。它也可以看作是一個有向圖,其中節點對應于句子中的單詞,節點之間的邊是單詞之間的對應依賴關系。
在spaCy中,執行依存分析同樣非常容易。我們將使用與詞性標注相同的句子:
# 依存分析 for token in doc: print(token.text, "-->", token.dep_)
輸出:
He –> nsubj went –> ROOT to –> aux play –> advcl basketball –> dobj
依存標記ROOT表示句子中的主要動詞或動作。其他詞與句子的詞根有直接或間接的聯系。通過執行下面的代碼,你可以了解其他標記的含義:
spacy.explain("nsubj"), spacy.explain("ROOT"), spacy.explain("aux"), spacy.explain("advcl"), spacy.explain("dobj")
輸出:
(‘nominal subject’, None, ‘auxiliary’, ‘adverbial clause modifier’, ‘direct object’)
首先讓我們了解什么是實體。實體是表示諸如個人、地點、組織等常見事物的信息的詞或詞組。這些實體具有專有名稱。
例如,請考慮以下句子:
在這句話中,實體是“Donald Trump”、“Google”和“New York City”。
現在讓我們看看spaCy如何識別句子中的命名實體。
doc = nlp("Indians spent over $71 billion on clothes in 2018") for ent in doc.ents: print(ent.text, ent.label_)
輸出:
Indians NORP over $71 billion MONEY 2018 DATE
spacy.explain("NORP")
輸出:‘Nationalities or religious or political groups’
基于規則的匹配是spaCy的新功能。使用這個spaCy匹配器,您可以使用用戶定義的規則在文本中查找單詞和短語。
就像正則表達式。
正則表達式使用文本模式來查找單詞和短語,而spaCy匹配器不僅使用文本模式,還使用單詞的詞匯屬性,如POS標記、依賴標記、詞根等。
讓我們看看它是如何工作的:
import spacy nlp = spacy.load('en_core_web_sm') # 導入 spaCy Matcher from spacy.matcher import Matcher #用spaCy詞匯表初始化Matcher matcher = Matcher(nlp.vocab) doc = nlp("Some people start their day with lemon water") # 定義規則 pattern = [{'TEXT': 'lemon'}, {'TEXT': 'water'}] # 添加規則 matcher.add('rule_1', None, pattern)
所以,在上面的代碼中:
首先,我們導入spaCy matcher
之后,我們用默認的spaCy詞匯表初始化matcher對象
然后,我們像往常一樣在NLP對象中傳遞輸入
在下一步中,我們將為要從文本中提取的內容定義規則。
假設我們想從文本中提取“lemon water”這個短語。所以,我們的目標是water跟在lemon后面。最后,我們將定義的規則添加到matcher對象。
現在讓我們看看matcher發現了什么:
matches = matcher(doc) matches
輸出: [(7604275899133490726, 6, 8)]
輸出有三個元素。第一個元素“7604275899133490726”是匹配ID。第二個和第三個元素是匹配標記的位置。
# 提取匹配文本 for match_id, start, end in matches: # 獲得匹配的寬度 matched_span = doc[start:end] print(matched_span.text)
輸出:lemon water
因此,模式是一個標記屬性列表。例如,“TEXT”是一個標記屬性,表示標記的確切文本。實際上,spaCy中還有許多其他有用的標記屬性,可以用來定義各種規則和模式。
我列出了以下標記屬性:
屬性 | 類型 | 描述 |
---|---|---|
ORTH | unicode | 精確匹配的文本 |
TEXT | unicode | 精確匹配的文本 |
LOWER | unicode | 文本小寫形式 |
LENGTH | int | 文本的長度 |
IS_ALPHA , IS_ASCII , IS_DIGIT | bool | 文本由字母字符、ASCII字符、數字組成。 |
IS_LOWER , IS_UPPER , IS_TITLE | bool | 文本是小寫、大寫、首字母大寫格式的。 |
IS_PUNCT , IS_SPACE , IS_STOP | bool | 文本是標點符號、空格、停用詞。 |
LIKE_NUM , LIKE_URL , LIKE_EMAIL | bool | 文本表示數字、URL和電子郵件。 |
POS , TAG , DEP , LEMMA , SHAPE | unicode | 文本是詞性標記、依存標簽、詞根、形狀。 |
ENT_TYPE | unicode | 實體標簽 |
讓我們看看spaCy matcher的另一個用例。考慮下面的兩句話:
You can read this book
I will book my ticket
現在我們感興趣的是找出一個句子中是否含有“book”這個詞。看起來挺直截了當的對吧?但這里有一個問題——只有當“book”這個詞在句子中用作名詞時,我們才能找到它。
在上面的第一句中,“book”被用作名詞,在第二句中,它被用作動詞。因此,spaCy匹配器應該只能從第一句話中提取。我們試試看:
doc1 = nlp("You read this book") doc2 = nlp("I will book my ticket") pattern = [{'TEXT': 'book', 'POS': 'NOUN'}] # 用共享的vocab初始化matcher matcher = Matcher(nlp.vocab) matcher.add('rule_2', None, pattern)
matches = matcher(doc1) matches
輸出: [(7604275899133490726, 3, 4)]
matcher在第一句話中找到了模式。
matches = matcher(doc2) matches
輸出:[]
很好!盡管“book”出現在第二句話中,matcher卻忽略了它,因為它不是一個名詞。
到此,關于“python spaCy怎么使用”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。