您好,登錄后才能下訂單哦!
這期內容當中小編將會給大家帶來有關TensorFlow發布其新更新TensorFlow 2.4.0-rc4的示例分析,文章內容豐富且以專業的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
TensorFlow最近發布了其新更新TensorFlow 2.4.0-rc4。TensorFlow Profiler現在支持對MultiWorkerMirroredStrategy 進行概要分析,該概要文件現在是一個穩定的API,并使用采樣模式API跟蹤多個工作進程。該策略可在多個可能具有多個GPU的工人之間進行同步分布式訓練。一些重大的改進涉及處理同級失敗和許多錯誤修復,這些錯誤修復可以在Keras的多員工訓練中找到 。Keras Functional API內部的主要重構已完成。它提高了構建功能模型的可靠性,穩定性和性能。該更新還增加了對TensorFloat-32的支持在基于Ampere的GPU上。TensorFloat-32(TF32)是基于NVIDIA Ampere的GPU的數學模型,默認情況下啟用。
重大變化
TF核心:
由于TensorFloat-32的緣故,一些float32運算在基于Ampere的GPU上運行時的精度較低,包括matmul和卷積 。例如,此類運算的輸入從23位精度舍入到10位精度。在某些情況下,TensorFloat-32也可用于complex64 ops。因此現在可以禁用TensorFloat-32。
刪除了許多不相關的API函數,例如C中用于字符串訪問/修改的C-API函數。不屬于TensorFlow公共API的模塊被隱藏。
tf.keras:
現在 steps_per_execution 參數在compile()中穩定。它有助于在單個tf.function 調用中運行多個批處理 ,從而可以提高TPU或具有較大Python開銷的小型模型的性能。Keras Functional API的內部結構已經進行了 重大重構。這種重構可能會影響依賴于某些內部細節的代碼。
tf.data:
現在,tf.data.experimental.service.DispatchServer 和 tf.data.experimental.service.WorkerServer使用配置元組代替單個參數。可以分別使用 tf.data.experimental.service.DispatchServer(dispatcher_config) 和 tf.data.experimental.service.WorkerServer(worker_config) 完成此操作。這有助于同時處理多個參數。
tf.distribute:
在最新更新中,各種內置API均使用新功能進行了重命名。
錯誤修復和其他更改
使用python常量或NumPy值調用ops與tf.convert_to_tensor 行為一致 。現在,這避免了tf.reshape之類的操作 會截斷諸如從int64到int32的輸入。
增加了對調度程序容錯的支持。
增加了對通過共享文件系統而不是通過RPC共享數據集圖的支持。這樣可以減輕調度程序的負擔,從而提高分布式數據集的性能。
功能性API重構的改進:
功能模型的構建不需要維護全局工作空間圖, 從而消除了內存泄漏,尤其是在構建許多模型或擴展模型時。
功能模型的構建應該平均快8-10%。
功能模型現在可以在第一個位置參數內的調用輸入中包含非符號值。
現在,在功能性API構造期間無法可靠轉換為Keras層的幾種TF ops應該可以正常工作,例如 tf.image.ssim_multiscale。
當Functional API構造出錯時(或無法將操作自動轉換為Keras圖層時)的錯誤消息應該更準確并且更易于理解。
總體而言,TensorFlow的新功能非常必要,因為它添加了必要的元素以增強性能并刪除不相關的元素。引入的改進將有助于開發更可靠和改進的ML模型。
上述就是小編為大家分享的TensorFlow發布其新更新TensorFlow 2.4.0-rc4的示例分析了,如果剛好有類似的疑惑,不妨參照上述分析進行理解。如果想知道更多相關知識,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。