您好,登錄后才能下訂單哦!
這篇文章主要介紹了python中Keras如何構建CNN網絡的相關知識,內容詳細易懂,操作簡單快捷,具有一定借鑒價值,相信大家閱讀完這篇python中Keras如何構建CNN網絡文章都會有所收獲,下面我們一起來看看吧。
Conv2D用于在CNN中構建卷積層,在使用它之前需要在庫函數處import它。
from keras.layers import Conv2D
在實際使用時,需要用到幾個參數。
Conv2D( nb_filter = 32, nb_row = 5, nb_col = 5, border_mode = 'same', input_shape = (28,28,1) )
其中,nb_filter代表卷積層的輸出有多少個channel,卷積之后圖像會越來越厚,這就是卷積后圖像的厚度。nb_row和nb_col的組合就是卷積器的大小,這里卷積器是(5,5)的大小。border_mode代表著padding的方式,same表示卷積前后圖像的shape不變。input_shape代表輸入的shape。
MaxPooling2D指的是池化層,在使用它之前需要在庫函數處import它。
from keras.layers import MaxPooling2D
在實際使用時,需要用到幾個參數。
MaxPooling2D( pool_size = (2,2), strides = (2,2), border_mode = 'same' )
其中,pool_size表示池化器的大小,在這里,池化器的shape是(2,2)。strides是池化器的步長,這里在X和Y方向上都是2,池化后,輸出比輸入的shape小了1/2。border_mode代表著padding的方式。
Flatten用于將卷積池化后最后的輸出變為一維向量,這樣才可以和全連接層連接,用于計算。在使用前需要用import導入。
from keras.layers import Flatten
在實際使用時,在最后一個池化層后直接添加層即可
model.add(Flatten())
這是一個卷積神經網絡的例子,用于識別手寫體,其神經網絡結構如下:
卷積層1->池化層1->卷積層2->池化層2->flatten->全連接層1->全連接層2->全連接層3。
單個樣本的shape如下:
(28,28,1)->(28,28,32)->(14,14,32)->(14,14,64)->(7,7,64)->(3136)->(1024)->(256)
import numpy as np from keras.models import Sequential from keras.layers import Dense,Activation,Conv2D,MaxPooling2D,Flatten ## 全連接層 from keras.datasets import mnist from keras.utils import np_utils from keras.optimizers import Adam (X_train,Y_train),(X_test,Y_test) = mnist.load_data() X_train = X_train.reshape(-1,28,28,1) X_test = X_test.reshape(-1,28,28,1) Y_train = np_utils.to_categorical(Y_train,num_classes= 10) Y_test = np_utils.to_categorical(Y_test,num_classes= 10) model = Sequential() # conv1 model.add( Conv2D( nb_filter = 32, nb_row = 5, nb_col = 5, border_mode = 'same', input_shape = (28,28,1) ) ) model.add(Activation("relu")) # pool1 model.add( MaxPooling2D( pool_size = (2,2), strides = (2,2), border_mode = 'same' ) ) # conv2 model.add( Conv2D( nb_filter = 64, nb_row = 5, nb_col = 5, border_mode = 'same' ) ) model.add(Activation("relu")) # pool2 model.add( MaxPooling2D( pool_size = (2,2), strides = (2,2), border_mode = 'same' ) ) # 全連接層 model.add(Flatten()) model.add(Dense(1024)) model.add(Activation("relu")) model.add(Dense(256)) model.add(Activation("relu")) model.add(Dense(10)) model.add(Activation("softmax")) adam = Adam(lr = 1e-4) ## compile model.compile(loss = 'categorical_crossentropy',optimizer = adam,metrics = ['accuracy']) ## tarin print("\ntraining") cost = model.fit(X_train,Y_train,nb_epoch = 2,batch_size = 32) print("\nTest") ## acc cost,accuracy = model.evaluate(X_test,Y_test) ## W,b = model.layers[0].get_weights() print("accuracy:",accuracy)
實驗結果為:
Epoch 1/2 60000/60000 [==============================] - 64s 1ms/step - loss: 0.7664 - acc: 0.9224 Epoch 2/2 60000/60000 [==============================] - 62s 1ms/step - loss: 0.0473 - acc: 0.9858 Test 10000/10000 [==============================] - 2s 169us/step accuracy: 0.9856
關于“python中Keras如何構建CNN網絡”這篇文章的內容就介紹到這里,感謝各位的閱讀!相信大家對“python中Keras如何構建CNN網絡”知識都有一定的了解,大家如果還想學習更多知識,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。