91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python?tensorflow與pytorch的浮點運算數怎么計算

發布時間:2022-11-25 10:07:23 來源:億速云 閱讀:145 作者:iii 欄目:開發技術

這篇文章主要講解了“Python tensorflow與pytorch的浮點運算數怎么計算”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“Python tensorflow與pytorch的浮點運算數怎么計算”吧!

    1. 引言

    FLOPs 是 floating point operations 的縮寫,指浮點運算數,可以用來衡量模型/算法的計算復雜度。本文主要討論如何在 tensorflow 1.x, tensorflow 2.x 以及 pytorch 中利用相關工具計算對應模型的 FLOPs。

    2. 模型結構

    為了說明方便,先搭建一個簡單的神經網絡模型,其模型結構以及主要參數如表1 所示。

    表 1 模型結構及主要參數

    LayerschannelsKernelsStridesUnitsActivation
    Conv2D32(4,4)(1,2)\relu
    GRU\\\96\
    Dense\\\256sigmoid

    用 tensorflow(實際使用 tensorflow 中的 keras 模塊)實現該模型的代碼為:

    from tensorflow.keras.layers import *
    from tensorflow.keras.models import load_model, Model
    def test_model_tf(Input_shape):
        # shape: [B, C, T, F]
        main_input = Input(batch_shape=Input_shape, name='main_inputs')
        conv = Conv2D(32, kernel_size=(4, 4), strides=(1, 2), activation='relu', data_format='channels_first', name='conv')(main_input)
        # shape: [B, T, FC]
        gru = Reshape((conv.shape[2], conv.shape[1] * conv.shape[3]))(conv)
        gru = GRU(units=96, reset_after=True, return_sequences=True, name='gru')(gru)
        output = Dense(256, activation='sigmoid', name='output')(gru)
        model = Model(inputs=[main_input], outputs=[output])
        return model

    用 pytorch 實現該模型的代碼為:

    import torch
    import torch.nn as nn
    class test_model_torch(nn.Module):
        def __init__(self):
            super(test_model_torch, self).__init__()
            self.conv2d = nn.Conv2d(in_channels=1, out_channels=32, kernel_size=(4,4), stride=(1,2))
            self.relu = nn.ReLU()
            self.gru = nn.GRU(input_size=4064, hidden_size=96)
            self.fc = nn.Linear(96, 256)
            self.sigmoid = nn.Sigmoid()
        def forward(self, inputs):
            # shape: [B, C, T, F]
            out = self.conv2d(inputs)
            out = self.relu(out)
            # shape: [B, T, FC]
            batch, channel, frame, freq = out.size()
            out = torch.reshape(out, (batch, frame, freq*channel))
            out, _ = self.gru(out)
            out = self.fc(out)
            out = self.sigmoid(out)
            return out

    3. 計算模型的 FLOPs

    本節討論的版本具體為:tensorflow 1.12.0, tensorflow 2.3.1 以及 pytorch 1.10.1+cu102。

    3.1. tensorflow 1.12.0

    在 tensorflow 1.12.0 環境中,可以使用以下代碼計算模型的 FLOPs:

    import tensorflow as tf
    import tensorflow.keras.backend as K
    def get_flops(model):
        run_meta = tf.RunMetadata()
        opts = tf.profiler.ProfileOptionBuilder.float_operation()
        flops = tf.profiler.profile(graph=K.get_session().graph,
                                    run_meta=run_meta, cmd='op', options=opts)
        return flops.total_float_ops
    if __name__ == "__main__":
        x = K.random_normal(shape=(1, 1, 100, 256))
        model = test_model_tf(x.shape)
        print('FLOPs of tensorflow 1.12.0:', get_flops(model))

    3.2. tensorflow 2.3.1

    在 tensorflow 2.3.1 環境中,可以使用以下代碼計算模型的 FLOPs :

    import tensorflow.compat.v1 as tf
    import tensorflow.compat.v1.keras.backend as K
    tf.disable_eager_execution()
    def get_flops(model):
        run_meta = tf.RunMetadata()
        opts = tf.profiler.ProfileOptionBuilder.float_operation()
        flops = tf.profiler.profile(graph=K.get_session().graph,
                                    run_meta=run_meta, cmd='op', options=opts)
        return flops.total_float_ops
    if __name__ == "__main__":
        x = K.random_normal(shape=(1, 1, 100, 256))
        model = test_model_tf(x.shape)
        print('FLOPs of tensorflow 2.3.1:', get_flops(model))

    3.3. pytorch 1.10.1+cu102

    在 pytorch 1.10.1+cu102 環境中,可以使用以下代碼計算模型的 FLOPs(需要安裝 thop):

    import thop
    x = torch.randn(1, 1, 100, 256)
    model = test_model_torch()
    flops, _ = thop.profile(model, inputs=(x,))
    print('FLOPs of pytorch 1.10.1:', flops * 2)

    需要注意的是,thop 返回的是 MACs (Multiply–Accumulate Operations),其等于 2 2 2 倍的 FLOPs,所以上述代碼有乘 2 2 2 操作。

    3.4. 結果對比

    三者計算出的 FLOPs 分別為:

    tensorflow 1.12.0:

    Python?tensorflow與pytorch的浮點運算數怎么計算

    tensorflow 2.3.1:

    Python?tensorflow與pytorch的浮點運算數怎么計算

    pytorch 1.10.1:

    Python?tensorflow與pytorch的浮點運算數怎么計算

    可以看到 tensorflow 1.12.0 和 tensorflow 2.3.1 的結果基本在同一個量級,而與 pytorch 1.10.1 計算出來的相差甚遠。但如果將上述模型結構改為只包含第一層 Conv2D,三者計算出來的 FLOPs 卻又是一致的。所以推斷差異主要來自于 GRU 的 FLOPs。

    感謝各位的閱讀,以上就是“Python tensorflow與pytorch的浮點運算數怎么計算”的內容了,經過本文的學習后,相信大家對Python tensorflow與pytorch的浮點運算數怎么計算這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

    向AI問一下細節

    免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

    AI

    务川| 阿荣旗| 桐城市| 宁远县| 锡林郭勒盟| 涟源市| 盐源县| 曲松县| 霍城县| 咸阳市| 陆良县| 武定县| 鹤峰县| 长兴县| 文水县| 鹤庆县| 政和县| 伊通| 陆丰市| 平山县| 长兴县| 博爱县| 黔江区| 日喀则市| 稷山县| 达拉特旗| 呼玛县| 江城| 阿勒泰市| 西平县| 乐清市| 锡林浩特市| 定襄县| 雅江县| 新巴尔虎左旗| 荣成市| 本溪| 许昌县| 青海省| 广昌县| 炉霍县|