日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

基于python介紹pytorch保存和恢復參數_python

作者:Hydrion-Qlz ? 更新時間: 2022-05-18 編程語言

一、讀寫文件

1.加載和保存張量

import torch
from torch import nn
from torch.nn import functional as F
import os

path = os.path.join(os.getcwd(), "")

x = torch.arange(4)
torch.save(x, path + "x-file")

現在我們可以將存儲在文件中的數據讀回內存

x2 = torch.load(path + "x-file")
x2
tensor([0, 1, 2, 3])

我們可以存儲一個張量列表,然后把他們讀回內存

y = torch.zeros(4)
torch.save([x, y], path + 'x-file')
x2, y2 = torch.load(path + 'x-file')
(x2, y2)
(tensor([0, 1, 2, 3]), tensor([0., 0., 0., 0.]))

我們甚至可以寫入或讀取從字符串映射到張量的字典。當我們要讀取或寫入模型中的所有權重時,這很方便

mydict = {'x': x, 'y': y}
torch.save(mydict, path + 'mydict')
mydict2 = torch.load('mydict')
mydict2
{'x': tensor([0, 1, 2, 3]), 'y': tensor([0., 0., 0., 0.])}

2.加載和保存模型

保存單個權重向量確實有用,但是如果我們想保存整個模型,并在之后加載他們,單獨保存每個向量則會變得很麻煩。畢竟,我們可能有數百個參數分布在各處。深度學習框架提供了內置函數來保存和加載整個網絡。需要注意的細節是,這里的保存模型并不是保存整個模型,而只是保存了其中的所有參數。
為了恢復模型,我們需要用代碼生成框架,然后從磁盤加載參數。

net = MLP()
X = torch.randn(size=(2, 20))
Y = net(X)

我們將模型的參數存儲在一個叫做“mlp.params”的文件中

torch.save(net.state_dict(), 'mlp.params')

為了恢復模型,我們實例化了原始多層感知機模型的一個備份。這里我們不需要隨機初始化模型參數,而是直接讀取文件中的參數

clone = MLP()
clone.load_state_dict(torch.load('mlp.params'))
clone.eval()
MLP(
? (hidden): Linear(in_features=20, out_features=256, bias=True)
? (out): Linear(in_features=256, out_features=10, bias=True)
)

由于兩個實例具有相同的模型參數,在輸入相同的X時,兩個實例的計算結果應該相同

Y_clone = clone(X)
Y_clone == Y
tensor([[True, True, True, True, True, True, True, True, True, True],
? ? ? ? [True, True, True, True, True, True, True, True, True, True]])

原文鏈接:https://blog.csdn.net/qq_46311811/article/details/123509031

欄目分類
最近更新