您好,登錄后才能下訂單哦!
本篇文章給大家分享的是有關embedding詞向量怎么在pytorch中使用,小編覺得挺實用的,因此分享給大家學習,希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。
Embedding
詞嵌入在 pytorch 中非常簡單,只需要調用 torch.nn.Embedding(m, n) 就可以了,m 表示單詞的總數目,n 表示詞嵌入的維度,其實詞嵌入就相當于是一個大矩陣,矩陣的每一行表示一個單詞。
emdedding初始化
默認是隨機初始化的
import torch from torch import nn from torch.autograd import Variable # 定義詞嵌入 embeds = nn.Embedding(2, 5) # 2 個單詞,維度 5 # 得到詞嵌入矩陣,開始是隨機初始化的 torch.manual_seed(1) embeds.weight # 輸出結果: Parameter containing: -0.8923 -0.0583 -0.1955 -0.9656 0.4224 0.2673 -0.4212 -0.5107 -1.5727 -0.1232 [torch.FloatTensor of size 2x5]
如果從使用已經訓練好的詞向量,則采用
pretrained_weight = np.array(args.pretrained_weight) # 已有詞向量的numpy self.embed.weight.data.copy_(torch.from_numpy(pretrained_weight))
embed的讀取
讀取一個向量。
注意參數只能是LongTensor型的
# 訪問第 50 個詞的詞向量 embeds = nn.Embedding(100, 10) embeds(Variable(torch.LongTensor([50]))) # 輸出: Variable containing: 0.6353 1.0526 1.2452 -1.8745 -0.1069 0.1979 0.4298 -0.3652 -0.7078 0.2642 [torch.FloatTensor of size 1x10]
讀取多個向量。
輸入為兩個維度(batch的大小,每個batch的單詞個數),輸出則在兩個維度上加上詞向量的大小。
Input: LongTensor (N, W), N = mini-batch, W = number of indices to extract per mini-batch Output: (N, W, embedding_dim)
見代碼
# an Embedding module containing 10 tensors of size 3 embedding = nn.Embedding(10, 3) # 每批取兩組,每組四個單詞 input = Variable(torch.LongTensor([[1,2,4,5],[4,3,2,9]])) a = embedding(input) # 輸出2*4*3 a[0],a[1]
輸出為:
(Variable containing: -1.2603 0.4337 0.4181 0.4458 -0.1987 0.4971 -0.5783 1.3640 0.7588 0.4956 -0.2379 -0.7678 [torch.FloatTensor of size 4x3], Variable containing: -0.5783 1.3640 0.7588 -0.5313 -0.3886 -0.6110 0.4458 -0.1987 0.4971 -1.3768 1.7323 0.4816 [torch.FloatTensor of size 4x3])
以上就是embedding詞向量怎么在pytorch中使用,小編相信有部分知識點可能是我們日常工作會見到或用到的。希望你能通過這篇文章學到更多知識。更多詳情敬請關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。