您好,登錄后才能下訂單哦!
本篇內容主要講解“pytorch梯度裁剪的原理是什么”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“pytorch梯度裁剪的原理是什么”吧!
既然在BP過程中會產生梯度消失/爆炸(就是偏導無限接近0,導致長時記憶無法更新),那么最簡單粗暴的方法,設定閾值,當梯度小于/大于閾值時,更新的梯度為閾值,如下圖所示:
1、梯度裁剪原理
優點:簡單粗暴
缺點:很難找到滿意的閾值
2、nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2)
這個函數是根據參數的范數來衡量的
Parameters:
parameters (Iterable[Variable]) – 一個基于變量的迭代器,會進行歸一化(原文:an iterable of Variables that will have gradients normalized)
max_norm (float or int) – 梯度的最大范數
norm_type(float or int) – 規定范數的類型,默認為L2
Returns:參數的總體范數(作為單個向量來看)
到此,相信大家對“pytorch梯度裁剪的原理是什么”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。