網(wǎng)站首頁 編程語言 正文
本文實例為大家分享了Pytorch實現(xiàn)邏輯回歸分類的具體代碼,供大家參考,具體內(nèi)容如下
1、代碼實現(xiàn)
步驟:
1.獲得數(shù)據(jù)
2.建立邏輯回歸模型
3.定義損失函數(shù)
4.計算損失函數(shù)
5.求解梯度
6.梯度更新
7.預(yù)測測試集
import torch
import torch.nn as nn
import numpy as np
import matplotlib.pyplot as plt
from torch.autograd import Variable
import torchvision.datasets as dataset
import torchvision.transforms as transforms
from torch.utils.data import DataLoader
input_size = 784 ?# 輸入到邏輯回歸模型中的輸入大小
num_classes = 10 ?# 分類的類別個數(shù)
num_epochs = 10 ?# 迭代次數(shù)
batch_size = 50 ?# 批量訓(xùn)練個數(shù)
learning_rate = 0.01 ?# 學(xué)習(xí)率
# 下載訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)
train_dataset = dataset.MNIST(root='./data', train=True, transform=transforms.ToTensor(), download=True)
test_dataset = dataset.MNIST(root='./data',train=False, transform=transforms.ToTensor)
# 使用DataLoader形成批處理文件
train_loader = DataLoader(dataset=train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(dataset=test_dataset, batch_size=batch_size, shuffle=False)
# 創(chuàng)建邏輯回歸類模型 ?(sigmoid(wx+b))
class LogisticRegression(nn.Module):
? ? def __init__(self,input_size,num_classes):
? ? ? ? super(LogisticRegression,self).__init__()
? ? ? ? self.linear = nn.Linear(input_size,num_classes)
? ? ? ? self.sigmoid = nn.Sigmoid()
? ? def forward(self, x):
? ? ? ? out = self.linear(x)
? ? ? ? out = self.sigmoid(out)
? ? ? ? return out
# 設(shè)定模型參數(shù)
model = LogisticRegression(input_size, num_classes)
# 定義損失函數(shù),分類任務(wù),使用交叉熵
criterion = nn.CrossEntropyLoss()
# 優(yōu)化算法,隨機(jī)梯度下降,lr為學(xué)習(xí)率,獲得模型需要更新的參數(shù)值
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
# 使用訓(xùn)練數(shù)據(jù)訓(xùn)練模型
for epoch in range(num_epochs):
?? ?# 批量數(shù)據(jù)進(jìn)行模型訓(xùn)練
? ? for i, (images, labels) in enumerate(train_loader):
? ? ?? ?# 需要將數(shù)據(jù)轉(zhuǎn)換為張量Variable
? ? ? ? images = Variable(images.view(-1, 28*28))
? ? ? ? labels = Variable(labels)
?? ??? ?
?? ??? ?# 梯度更新前需要進(jìn)行梯度清零
? ? ? ? optimizer.zero_grad()
?? ??? ?# 獲得模型的訓(xùn)練數(shù)據(jù)結(jié)果
? ? ? ? outputs = model(images)
?? ??? ?
?? ??? ?# 計算損失函數(shù)用于計算梯度
? ? ? ? loss = criterion(outputs, labels)
?? ??? ?# 計算梯度
? ? ? ? loss.backward()
?? ?
?? ??? ?# 進(jìn)行梯度更新
? ? ? ? optimizer.step()
?? ??? ?# 每隔一段時間輸出一個訓(xùn)練結(jié)果
? ? ? ? if (i+1) % 100 == 0:
? ? ? ? ? ? print('Epoch:[%d %d], Step:[%d/%d], Loss: %.4f' % (epoch+1,num_epochs,i+1,len(train_dataset)//batch_size,loss.item()))
# 訓(xùn)練好的模型預(yù)測測試數(shù)據(jù)集
correct = 0
total = 0
for images, labels in test_loader:
? ? images = Variable(images.view(-1, 28*28)) ?# 形式為(batch_size,28*28)
? ? outputs = model(images)
? ? _,predicts = torch.max(outputs.data,1) ?# _輸出的是最大概率的值,predicts輸出的是最大概率值所在位置,max()函數(shù)中的1表示維度,意思是計算某一行的最大值
? ? total += labels.size(0)
? ? correct += (predicts==labels).sum()
print('Accuracy of the model on the 10000 test images: %d %%' % (100 * correct / total))
2、踩過的坑
1.在代碼中下載訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)的時候,兩段代碼是有區(qū)別的:
train_dataset = dataset.MNIST(root='./data', train=True, transform=transforms.ToTensor(), download=True)
test_dataset = dataset.MNIST(root='./data',train=False, transform=transforms.ToTensor)
第一段代碼中多了一個download=True,這個的作用是,如果為True,則從Internet下載數(shù)據(jù)集并將其存放在根目錄中。如果數(shù)據(jù)已經(jīng)下載,則不會再次下載。
在第二段代碼中沒有加download=True,加了的話在使用測試數(shù)據(jù)進(jìn)行預(yù)測的時候會報錯。
代碼中transform=transforms.ToTensor()的作用是將PIL圖像轉(zhuǎn)換為Tensor,同時已經(jīng)進(jìn)行歸一化處理。
2.代碼中設(shè)置損失函數(shù):
criterion = nn.CrossEntropyLoss()
loss = criterion(outputs, labels)
一開始的時候直接使用:
loss = nn.CrossEntropyLoss()
loss = loss(outputs, labels)
這樣也會報錯,因此需要將loss改為criterion。
原文鏈接:https://blog.csdn.net/qq_37388085/article/details/105737190
相關(guān)推薦
- 2022-05-21 云原生技術(shù)持久化存儲PV與PVC_云其它
- 2022-12-22 Nginx配置之main?events塊使用示例詳解_nginx
- 2022-04-10 python?tkinter實現(xiàn)簡單計算器功能_python
- 2022-12-25 一文帶你熟悉Go語言中的for循環(huán)_Golang
- 2022-12-11 C語言如何計算兩個數(shù)的最小公倍數(shù)_C 語言
- 2022-07-02 在React中使用axios發(fā)送請求
- 2023-03-25 Python?flask?框架使用flask-login?模塊的詳細(xì)過程_python
- 2022-10-06 Python中os模塊的12種用法總結(jié)_python
- 最近更新
-
- window11 系統(tǒng)安裝 yarn
- 超詳細(xì)win安裝深度學(xué)習(xí)環(huán)境2025年最新版(
- Linux 中運(yùn)行的top命令 怎么退出?
- MySQL 中decimal 的用法? 存儲小
- get 、set 、toString 方法的使
- @Resource和 @Autowired注解
- Java基礎(chǔ)操作-- 運(yùn)算符,流程控制 Flo
- 1. Int 和Integer 的區(qū)別,Jav
- spring @retryable不生效的一種
- Spring Security之認(rèn)證信息的處理
- Spring Security之認(rèn)證過濾器
- Spring Security概述快速入門
- Spring Security之配置體系
- 【SpringBoot】SpringCache
- Spring Security之基于方法配置權(quán)
- redisson分布式鎖中waittime的設(shè)
- maven:解決release錯誤:Artif
- restTemplate使用總結(jié)
- Spring Security之安全異常處理
- MybatisPlus優(yōu)雅實現(xiàn)加密?
- Spring ioc容器與Bean的生命周期。
- 【探索SpringCloud】服務(wù)發(fā)現(xiàn)-Nac
- Spring Security之基于HttpR
- Redis 底層數(shù)據(jù)結(jié)構(gòu)-簡單動態(tài)字符串(SD
- arthas操作spring被代理目標(biāo)對象命令
- Spring中的單例模式應(yīng)用詳解
- 聊聊消息隊列,發(fā)送消息的4種方式
- bootspring第三方資源配置管理
- GIT同步修改后的遠(yuǎn)程分支