91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch要使用float64訓練的原因有哪些

發布時間:2022-02-26 14:21:50 來源:億速云 閱讀:223 作者:小新 欄目:開發技術

這篇文章主要為大家展示了“pytorch要使用float64訓練的原因有哪些”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“pytorch要使用float64訓練的原因有哪些”這篇文章吧。

首先我們要知道,pytorch默認使用單精度float32訓練模型,

原因在于:

使用float16訓練模型,模型效果會有損失,而使用double(float64)會有2倍的內存壓力,且不會帶來太多的精度提升。

本人,最近遇到需要使用double數據類型訓練模型的情況,具體實現需要把模型的權重參數數據類型和輸入數據類型全部設置為torch.float64即可。

可使用torch的一個函數,輕松地把模型參數轉化為float64

torch.set_default_dtype(torch.float64)

輸入類型可使用

tensor.type(torch.float64)

補充:float32和float64的本質區別

首先我們需要知道何為bits和bytes?

bits:名為位數bytes:為字節簡單的數就是MB和G的關系!

那么8bits=1bytes

那么float32和float64有什么區別呢?

數位的區別一個在內存中占分別32和64個bits,也就是4bytes或8bytes數位越高浮點數的精度越高它會影響深度學習計算效率?

float64占用的內存是float32的兩倍,是float16的4倍;

比如對于CIFAR10數據集,如果采用float64來表示,需要60000*32*32*3*8/1024**3=1.4G,光把數據集調入內存就需要1.4G;

如果采用float32,只需要0.7G,如果采用float16,只需要0.35G左右;

占用內存的多少,會對系統運行效率有嚴重影響;(因此數據集文件都是采用uint8來存在數據,保持文件最小)

以上是“pytorch要使用float64訓練的原因有哪些”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

绥化市| 丰城市| 武穴市| 安阳县| 军事| 滨海县| 罗甸县| 临海市| 蓝田县| 诏安县| 宣城市| 台中县| 浦城县| 平利县| 山东| 綦江县| 吉木萨尔县| 长汀县| 叙永县| 玉林市| 化德县| 姜堰市| 乐亭县| 乌拉特前旗| 通城县| 焦作市| 义马市| 马尔康县| 渭南市| 石屏县| 南溪县| 浏阳市| 德安县| 孟连| 呈贡县| 内乡县| 江源县| 礼泉县| 卢湾区| 罗甸县| 瓦房店市|