您好,登錄后才能下訂單哦!
如何深入理解Pytorch微調torchvision模型,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。
在本小節,深入探討如何對torchvision進行微調和特征提取。所有模型都已經預先在1000類的magenet數據集上訓練完成。 本節將深入介紹如何使用幾個現代的CNN架構,并將直觀展示如何微調任意的PyTorch模型。
本節將執行兩種類型的遷移學習:
微調:從預訓練模型開始,更新我們新任務的所有模型參數,實質上是重新訓練整個模型。
特征提取:從預訓練模型開始,僅更新從中導出預測的最終圖層權重。它被稱為特征提取,因為我們使用預訓練的CNN作為固定 的特征提取器,并且僅改變輸出層。
通常這兩種遷移學習方法都會遵循一下步驟:
初始化預訓練模型
重組最后一層,使其具有與新數據集類別數相同的輸出數
為優化算法定義想要的訓練期間更新的參數
運行訓練步驟
from __future__ import print_function from __future__ import division import torch import torch.nn as nn import torch.optim as optim import numpy as np import torchvision from torchvision import datasets,models,transforms import matplotlib.pyplot as plt import time import os import copy print("Pytorch version:",torch.__version__) print("torchvision version:",torchvision.__version__)
運行結果
數據集——>我在這里
鏈接:https://pan.baidu.com/s/1G3yRfKTQf9sIq1iCSoymWQ
提取碼:1234
#%%輸入 data_dir="D:\Python\Pytorch\data\hymenoptera_data" # 從[resnet,alexnet,vgg,squeezenet,desenet,inception] model_name='squeezenet' # 數據集中類別數量 num_classes=2 # 訓練的批量大小 batch_size=8 # 訓練epoch數 num_epochs=15 # 用于特征提取的標志。為FALSE,微調整個模型,為TRUE只更新圖層參數 feature_extract=True
train_model函數處理給定模型的訓練和驗證。作為輸入,它需要PyTorch模型、數據加載器字典、損失函數、優化器、用于訓練和驗 證epoch數,以及當模型是初始模型時的布爾標志。
is_inception標志用于容納 Inception v3 模型,因為該體系結構使用輔助輸出, 并且整體模型損失涉及輔助輸出和最終輸出,如此處所述。 這個函數訓練指定數量的epoch,并且在每個epoch之后運行完整的驗證步驟。它還跟蹤最佳性能的模型(從驗證準確率方面),并在訓練 結束時返回性能最好的模型。在每個epoch之后,打印訓練和驗證正確率。
#%%模型訓練和驗證 device=torch.device("cuda:0" if torch.cuda.is_available() else "cpu") def train_model(model,dataloaders,criterion,optimizer,num_epochs=25,is_inception=False): since=time.time() val_acc_history=[] best_model_wts=copy.deepcopy(model.state_dict()) best_acc=0.0 for epoch in range(num_epochs): print('Epoch{}/{}'.format(epoch, num_epochs-1)) print('-'*10) # 每個epoch都有一個訓練和驗證階段 for phase in['train','val']: if phase=='train': model.train() else: model.eval() running_loss=0.0 running_corrects=0 # 迭代數據 for inputs,labels in dataloaders[phase]: inputs=inputs.to(device) labels=labels.to(device) # 梯度置零 optimizer.zero_grad() # 向前傳播 with torch.set_grad_enabled(phase=='train'): # 獲取模型輸出并計算損失,開始的特殊情況在訓練中他有一個輔助輸出 # 在訓練模式下,通過將最終輸出和輔助輸出相加來計算損耗,在測試中值考慮最終輸出 if is_inception and phase=='train': outputs,aux_outputs=model(inputs) loss1=criterion(outputs,labels) loss2=criterion(aux_outputs,labels) loss=loss1+0.4*loss2 else: outputs=model(inputs) loss=criterion(outputs,labels) _,preds=torch.max(outputs,1) if phase=='train': loss.backward() optimizer.step() # 添加 running_loss+=loss.item()*inputs.size(0) running_corrects+=torch.sum(preds==labels.data) epoch_loss=running_loss/len(dataloaders[phase].dataset) epoch_acc=running_corrects.double()/len(dataloaders[phase].dataset) print('{}loss : {:.4f} acc:{:.4f}'.format(phase, epoch_loss,epoch_acc)) if phase=='train' and epoch_acc>best_acc: best_acc=epoch_acc best_model_wts=copy.deepcopy(model.state_dict()) if phase=='val': val_acc_history.append(epoch_acc) print() time_elapsed=time.time()-since print('training complete in {:.0f}s'.format(time_elapsed//60, time_elapsed%60)) print('best val acc:{:.4f}'.format(best_acc)) model.load_state_dict(best_model_wts) return model,val_acc_history
當我們進行特征提取時,此輔助函數將模型中參數的 .requires_grad 屬性設置為False。
默認情況下,當我們加載一個預訓練模型時,所有參數都是 .requires_grad = True
,如果我們從頭開始訓練或微調,這種設置就沒問題。
但是,如果我們要運行特征提取并且只想為新初始化的層計算梯度,那么我們希望所有其他參數不需要梯度變化。
#%%設置模型參數的.require——grad屬性 def set_parameter_requires_grad(model,feature_extracting): if feature_extracting: for param in model.parameters(): param.require_grad=False
關于如何深入理解Pytorch微調torchvision模型問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。