您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關Python實現word2Vec model過程解析,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
這篇文章主要介紹了Python實現word2Vec model過程解析,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
import gensim, logging, os logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s', level=logging.INFO) import nltk corpus = nltk.corpus.brown.sents() fname = 'brown_skipgram.model' if os.path.exists(fname): # load the file if it has already been trained, to save repeating the slow training step below model = gensim.models.Word2Vec.load(fname) else: # can take a few minutes, grab a cuppa model = gensim.models.Word2Vec(corpus, size=100, min_count=5, workers=2, iter=50) model.save(fname) words = "woman women man girl boy green blue".split() for w1 in words: for w2 in words: print(w1, w2, model.similarity(w1, w2)) print(model.most_similar(positive=['woman', ''], topn=1)) print(model.similarity('woman', 'girl'))girl
在gensim模塊中已經封裝了13年提出的model--word2vec,所以我們直接開始建立模型
這是建立模型的過程,最后會出現saving Word2vec的語句,代表已經成功建立了模型
這是輸入了 gorvement和news關鍵詞后 所反饋的詞語 --- administration, 他們之間的相關性是0.508
當我在輸入 women 和 man ,他們顯示的相關性的0.638 ,已經是非常高的一個數字。
值得一提的是,我用的語料庫是直接從nltk里的brown語料庫。其中大概包括了一些新聞之類的數據。
大家如果感興趣的話,可以自己建立該模型,通過傳入不同的語料庫,來calc 一些term的 相關性噢
關于“Python實現word2Vec model過程解析”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。