您好,登錄后才能下訂單哦!
不懂Keras 如何快速解決OOM超內存??其實想解決這個問題也不難,下面讓小編帶著大家一起學習怎么去解決,希望大家閱讀完這篇文章后大所收獲。
如果在Keras內部多次使用同一個Model,例如在不同的數據集上訓練同一個模型進而得到結果,會存在內存泄露的問題。在運行幾次循環之后,就會報錯OOM。
解決方法是在每個代碼后面接clear_session()函數,顯示的關閉TFGraph,再重啟。
from keras import backend as K
K.clear_session()
補充知識:Keras多次加載模型進行測試時內存溢出的解決方法
在進行實驗的過程中,保存了每個epoch的模型參數文件,需要驗證每個保存的模型的效果,想到直接簡單粗暴的手法,就是一個循環里加載模型并進行驗證,但是導致隨著加載的模型越來越多,速度越來越慢。
方法如下:在每次加載模型之前,清空模型占用的內存即可。
import tensorflow as tf from keras import backend as K K.clear_session() tf.reset_default_graph() ‘'‘加載模型位置'‘'
感謝你能夠認真閱讀完這篇文章,希望小編分享Keras 如何快速解決OOM超內存?內容對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業資訊頻道,遇到問題就找億速云,詳細的解決方法等著你來學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。