日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學(xué)無先后,達者為師

網(wǎng)站首頁 編程語言 正文

PyTorch模型的保存與加載方法實例_python

作者:長命百歲? ? 更新時間: 2022-11-13 編程語言

模型的保存與加載

首先,需要導(dǎo)入兩個包

import torch
import torchvision.models as models

保存和加載模型參數(shù)

PyTorch模型將學(xué)習(xí)到的參數(shù)存儲在一個內(nèi)部狀態(tài)字典中,叫做state_dict。這可以通過torch.save方法來實現(xiàn)。
我們導(dǎo)入預(yù)訓(xùn)練好的VGG16模型,并將其保存。我們將state_dict字典保存在model_weights.pth文件中。

model = models.vgg16(pretrained=True)
torch.save(model.state_dict(), 'model_weights.pth')

想要加載模型參數(shù),我們需要創(chuàng)建一個和原模型一樣的實例,然后通過load_state_dict()方法來加載模型參數(shù)

  • 創(chuàng)建一個VGG16模型實例(未經(jīng)過預(yù)訓(xùn)練的)
  • 加載本地參數(shù)
model = models.vgg16() # we do not specify pretrained=True, i.e. do not load default weights
model.load_state_dict(torch.load('model_weights.pth'))
model.eval()

注意:在進行測試前,如果模型中有dropout層和batch normalization層的話,一定要使用model.eval()將模型轉(zhuǎn)到測試模式。

  • train模式下,dropout網(wǎng)絡(luò)層會按照設(shè)定的參數(shù)p設(shè)置保留激活單元的概率(保留概率=p); batchnorm層會繼續(xù)計算數(shù)據(jù)的meanvar等參數(shù)并更新。
  • val模式下,dropout層會讓所有的激活單元都通過,而batchnorm層會停止計算和更新meanvar,直接使用在訓(xùn)練階段已經(jīng)學(xué)出的meanvar

當(dāng)然,相同的,在模型進行訓(xùn)練之前,要使用model.train()來將模型轉(zhuǎn)為訓(xùn)練模式

保存和加載模型參數(shù)與結(jié)構(gòu)

當(dāng)加載模型權(quán)重時,我們需要首先實例化模型類,因為類定義了網(wǎng)絡(luò)的結(jié)構(gòu)。我們可能希望將這個類的結(jié)構(gòu)與模型保存在一起。這樣的話,我們可以將model而不是model.state_dict()作為參數(shù)。

torch.save(model, 'model.pth')

這樣,我們加載模型的時候就不用再新建一個實例了。加載方式如下所示

model = torch.load('model.pth')

這種方式在網(wǎng)絡(luò)比較大的時候可能比較慢,因為相較于上面的方式多存儲了網(wǎng)絡(luò)的結(jié)構(gòu)

總結(jié)

原文鏈接:https://blog.csdn.net/qq_52852138/article/details/123339337

欄目分類
最近更新