日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

python神經網絡學習利用PyTorch進行回歸運算_python

作者:Bubbliiiing ? 更新時間: 2022-06-28 編程語言

學習前言

我發現不僅有很多的Keras模型,還有很多的PyTorch模型,還是學學Pytorch吧,我也想了解以下tensor到底是個啥。

PyTorch中的重要基礎函數

1、class Net(torch.nn.Module)神經網絡的構建:

PyTorch中神經網絡的構建和Tensorflow的不一樣,它需要用一個類來進行構建(后面還可以用與Keras類似的Sequential模型構建),當然基礎還是用類構建,這個類需要繼承PyTorch中的神經網絡模型,torch.nn.Module,具體構建方式如下:

# 繼承torch.nn.Module模型
class Net(torch.nn.Module):
	# 重載初始化函數(我忘了這個是不是叫重載)
    def __init__(self, n_feature, n_hidden, n_output):
        super(Net, self).__init__()
        # Applies a linear transformation to the incoming data: :math:y = xA^T + b
        # 全連接層,公式為y = xA^T + b
        # 在初始化的同時構建兩個全連接層(也就是一個隱含層)
        self.hidden = torch.nn.Linear(n_feature, n_hidden)
        self.predict = torch.nn.Linear(n_hidden, n_output)
	# forward函數用于構建前向傳遞的過程
    def forward(self, x):
        # 隱含層的輸出
        hidden_layer = functional.relu(self.hidden(x))
        # 實際的輸出
        output_layer = self.predict(hidden_layer)
        return output_layer

該部分構建了一個含有一層隱含層的神經網絡,隱含層神經元個數為n_hidden。
在建立了上述的類后,就可以通過如下函數建立神經網絡:

net = Net(n_feature=1, n_hidden=10, n_output=1)

2、optimizer優化器

optimizer用于構建模型的優化器,與tensorflow中優化器的意義相同,PyTorch的優化器在前綴為torch.optim的庫中。

優化器需要傳入net網絡的參數。

具體使用方式如下:

# torch.optim是優化器模塊
# Adam可以改成其它優化器,如SGD、RMSprop等
optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)

3、loss損失函數定義

loss用于定義神經網絡訓練的損失函數,常用的損失函數是均方差損失函數(回歸)和交叉熵損失函數(分類)。

具體使用方式如下:

# 均方差lossloss_func = torch.nn.MSELoss() 

4、訓練過程

訓練過程分為三個步驟:

1、利用網絡預測結果。

prediction = net(x)

2、利用預測的結果與真實值對比生成loss。

loss = loss_func(prediction, y)

3、進行反向傳遞(該部分有三步)。

# 均方差loss
# 反向傳遞步驟
# 1、初始化梯度
optimizer.zero_grad()
# 2、計算梯度
loss.backward()
# 3、進行optimizer優化
optimizer.step()

全部代碼

這是一個簡單的回歸預測模型。

import torch
from torch.autograd import Variable
import torch.nn.functional as functional
import matplotlib.pyplot as plt
import numpy as np
# x的shape為(100,1)
x = torch.from_numpy(np.linspace(-1,1,100).reshape([100,1])).type(torch.FloatTensor)
# y的shape為(100,1)
y = torch.sin(x) + 0.2*torch.rand(x.size())
class Net(torch.nn.Module):
    def __init__(self, n_feature, n_hidden, n_output):
        super(Net, self).__init__()
        # Applies a linear transformation to the incoming data: :math:y = xA^T + b
        # 全連接層,公式為y = xA^T + b
        self.hidden = torch.nn.Linear(n_feature, n_hidden)
        self.predict = torch.nn.Linear(n_hidden, n_output)
    def forward(self, x):
        # 隱含層的輸出
        hidden_layer = functional.relu(self.hidden(x))
        output_layer = self.predict(hidden_layer)
        return output_layer
# 類的建立
net = Net(n_feature=1, n_hidden=10, n_output=1)
# torch.optim是優化器模塊
optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
# 均方差loss
loss_func = torch.nn.MSELoss() 
for t in range(1000):
    prediction = net(x)
    loss = loss_func(prediction, y)
    # 反向傳遞步驟
    # 1、初始化梯度
    optimizer.zero_grad()
    # 2、計算梯度
    loss.backward()
    # 3、進行optimizer優化
    optimizer.step()
    if t & 50 == 0:
        print("The loss is",loss.data.numpy())

運行結果為:

The loss is 0.27913737
The loss is 0.2773982
The loss is 0.27224126
…………
The loss is 0.0035993527
The loss is 0.0035974088
The loss is 0.0035967692

原文鏈接:https://blog.csdn.net/weixin_44791964/article/details/101790418

欄目分類
最近更新