91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么在Python中實現softmax反向傳播

發布時間:2023-05-09 11:20:29 來源:億速云 閱讀:103 作者:iii 欄目:編程語言

今天小編給大家分享一下怎么在Python中實現softmax反向傳播的相關知識點,內容詳細,邏輯清晰,相信大部分人都還太了解這方面的知識,所以分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后有所收獲,下面我們一起來了解一下吧。

反向傳播求導

可以看到,softmax 計算了多個神經元的輸入,在反向傳播求導時,需要考慮對不同神經元的參數求導。

分兩種情況考慮:

  • 當求導的參數位于分子時

  • 當求導的參數位于分母時

怎么在Python中實現softmax反向傳播

當求導的參數位于分子時:

怎么在Python中實現softmax反向傳播

當求導的參數位于分母時(ez2 or ez3這兩個是對稱的,求導結果是一樣的):

怎么在Python中實現softmax反向傳播

怎么在Python中實現softmax反向傳播

代碼

import torch
import math

def my_softmax(features):
    _sum = 0
    for i in features:
        _sum += math.e ** i
    return torch.Tensor([ math.e ** i / _sum for i in features ])

def my_softmax_grad(outputs):    
    n = len(outputs)
    grad = []
    for i in range(n):
        temp = []
        for j in range(n):
            if i == j:
                temp.append(outputs[i] * (1- outputs[i]))
            else:
                temp.append(-outputs[j] * outputs[i])
        grad.append(torch.Tensor(temp))
    return grad

if __name__ == '__main__':

    features = torch.randn(10)
    features.requires_grad_()

    torch_softmax = torch.nn.functional.softmax
    p1 = torch_softmax(features,dim=0)
    p2 = my_softmax(features)
    print(torch.allclose(p1,p2))
    
    n = len(p1)
    p2_grad = my_softmax_grad(p2)
    for i in range(n):
        p1_grad = torch.autograd.grad(p1[i],features, retain_graph=True)
        print(torch.allclose(p1_grad[0], p2_grad[i]))

以上就是“怎么在Python中實現softmax反向傳播”這篇文章的所有內容,感謝各位的閱讀!相信大家閱讀完這篇文章都有很大的收獲,小編每天都會為大家更新不同的知識,如果還想學習更多的知識,請關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

德格县| 莎车县| 苗栗县| 拜泉县| 大丰市| 河北区| 邵阳县| 阜南县| 琼结县| 亳州市| 永兴县| 永年县| 瑞昌市| 西林县| 岳普湖县| 葫芦岛市| 洛隆县| 枣强县| 陵川县| 许昌市| 宜都市| 山东省| 孟州市| 武夷山市| 郸城县| 遂溪县| 南宁市| 莲花县| 安庆市| 肥乡县| 色达县| 诸城市| 方正县| 连山| 新兴县| 洪洞县| 海原县| 东平县| 砚山县| 望江县| 岑溪市|