網(wǎng)站首頁(yè) 編程語(yǔ)言 正文
1. 導(dǎo)入庫(kù)
機(jī)器學(xué)習(xí)的任務(wù)分為兩大類:分類和回歸
分類是對(duì)一堆目標(biāo)進(jìn)行識(shí)別歸類,例如貓狗分類、手寫(xiě)數(shù)字分類等等
回歸是對(duì)某樣事物接下來(lái)行為的預(yù)測(cè),例如預(yù)測(cè)天氣等等
這次我們要完成的任務(wù)是邏輯回歸,雖然名字叫做回歸,其實(shí)是個(gè)二元分類的任務(wù)
首先看看我們需要的庫(kù)文件
torch.nn 是專門(mén)為神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的接口
matplotlib 用來(lái)繪制圖像,幫助可視化任務(wù)
torch 定義張量,數(shù)據(jù)的傳輸利用張量來(lái)實(shí)現(xiàn)
optim 優(yōu)化器的包,例如SGD等
numpy 數(shù)據(jù)處理的包
2. 定義數(shù)據(jù)集
簡(jiǎn)單說(shuō)明一下任務(wù),想在一個(gè)正方形的區(qū)域內(nèi)生成若干點(diǎn),然后手工設(shè)計(jì)label,最后通過(guò)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,畫(huà)出決策邊界
假設(shè):正方形的邊長(zhǎng)是2,左下角的坐標(biāo)為(0,0),右上角的坐標(biāo)為(2,2)
然后我們手工定義分界線 y = x ,在分界線的上方定義為藍(lán)色,下方定義為紅色
2.1 生成數(shù)據(jù)
首先生成數(shù)據(jù)的代碼為
首先通過(guò)rand(0-1的均勻分布)生成200個(gè)點(diǎn),并將他們擴(kuò)大2倍,x1代表橫坐標(biāo),x2代表縱坐標(biāo)
然后定義一下分類,這里簡(jiǎn)單介紹一下zip函數(shù)。
zip會(huì)將這里的a,b對(duì)應(yīng)打包成一對(duì),這樣i對(duì)應(yīng)的就是(1,‘a(chǎn)’),i[0] 對(duì)應(yīng)的就是1 2 3
再回到我們的代碼,因?yàn)槲覀円獙?shí)現(xiàn)的是二元分類,所以我們定義兩個(gè)不同的類型,用pos,neg存起來(lái)。然后我們知道i[1] 代表的是 x2 ,i[0] 代表的是x1 , 所以 x2 - x1 <0 也就是也就是在直線y=x的下面為pos類型。否則,為neg類型
最后,我們需要將pos,neg類型的繪制出來(lái)。因?yàn)閜os里面其實(shí)是類似于(1,1)這樣的坐標(biāo),因?yàn)閜os.append(i) 里面的 i 其實(shí)是(x1,x2) 的坐標(biāo)形式, 所以我們將pos 里面的第一個(gè)元素x1定義為賦值給橫坐標(biāo),第二個(gè)元素x2賦值給縱坐標(biāo)
然后通過(guò)scatter 繪制離散的點(diǎn)就可以,將pos 繪制成 red 顏色,neg 繪制成 blue 顏色,如圖
2.2 設(shè)置label
我們進(jìn)行的其實(shí)是有監(jiān)督學(xué)習(xí),所以需要label
這里需要注意的是,不同于回歸任務(wù),x1不是輸入,x2也不是輸出。應(yīng)該x1,x2都是輸入的元素,也就是特征feature。所以我們應(yīng)該將紅色的點(diǎn)集設(shè)置一個(gè)標(biāo)簽,例如 1 ,藍(lán)色的點(diǎn)集設(shè)置一個(gè)標(biāo)簽,例如 0.
實(shí)現(xiàn)代碼如下
很容易理解,訓(xùn)練集x_data 應(yīng)該是所有樣本,也就是pos和neg的所以元素。而之前介紹了x1,x2都是輸入的特征,那么x_data的shape 應(yīng)該是 [200,2] 的。而y_data 只有1(pos 紅色)類別,或者 0(neg 藍(lán)色)類型,所以y_data 的shape 應(yīng)該是 [200,1] 的。y_data view的原因是變成矩陣的形式而不是向量的形式
這里的意思是,假如坐標(biāo)是(1.5,0.5)那么應(yīng)該落在紅色區(qū)域,那么這個(gè)點(diǎn)的標(biāo)簽就是1
3. 搭建網(wǎng)絡(luò)+優(yōu)化器
網(wǎng)絡(luò)的類型很簡(jiǎn)單,不再贅述。至于為什么要繼承nn.Module或者super那步是干啥的不用管,基本上都是這樣寫(xiě)的,記住就行。
需要注意的是我們輸入的特征是(n * 2) ,所以Linear 應(yīng)該是(2,1)
二元分類最后的輸出一般選用sigmoid函數(shù)
這里的損失函數(shù)我們選擇BCE,二元交叉熵?fù)p失函數(shù)。
算法為隨機(jī)梯度下降
4. 訓(xùn)練
訓(xùn)練的過(guò)程也比較簡(jiǎn)單,就是將模型的預(yù)測(cè)輸出值和真實(shí)的label作比較。然后將梯度歸零,在反向傳播并且更新梯度。
5. 繪制決策邊界
這里模型訓(xùn)練完成后,將w0,w1 ,b取出來(lái),然后繪制出直線
這里要繪制的是w0 * x1+ w1 * x2 + b = 0 ,因?yàn)樽铋_(kāi)始介紹了x1代表橫坐標(biāo)x,x2代表縱坐標(biāo)y。通過(guò)變形可知y = (-w0 * x1 - b ) / w1,結(jié)果如圖
程序輸出的損失為
最后,w0 = 4.1911 , w1 = -4.0290 ,b = 0.0209 ,近似等于y = x,和我們剛開(kāi)始定義的分界線類似
6. 代碼
import torch.nn as nn
import matplotlib.pyplot as plt
import torch
from torch import optim
import numpy as np
torch.manual_seed(1) # 保證程序隨機(jī)生成數(shù)一樣
x1 = torch.rand(200) * 2
x2 = torch.rand(200) * 2
data = zip(x1,x2)
pos = [] # 定義類型 1
neg = [] # 定義類型 2
def classification(data):
for i in data:
if(i[1] - i[0] < 0):
pos.append(i)
else:
neg.append(i)
classification(data)
pos_x = [i[0] for i in pos]
pos_y = [i[1] for i in pos]
neg_x = [i[0] for i in neg]
neg_y = [i[1] for i in neg]
plt.scatter(pos_x,pos_y,c='r')
plt.scatter(neg_x,neg_y,c='b')
plt.show()
x_data = [[i[0],i[1]] for i in pos]
x_data.extend([[i[0],i[1]] for i in neg])
x_data = torch.Tensor(x_data) # 輸入數(shù)據(jù) feature
y_data = [1 for i in range(len(pos))]
y_data.extend([0 for i in range(len(neg))])
y_data = torch.Tensor(y_data).view(-1,1) # 對(duì)應(yīng)的標(biāo)簽
class LogisticRegressionModel(nn.Module): # 定義網(wǎng)絡(luò)
def __init__(self):
super(LogisticRegressionModel,self).__init__()
self.linear = nn.Linear(2,1)
self.sigmoid = nn.Sigmoid()
def forward(self,x):
x = self.linear(x)
x = self.sigmoid(x)
return x
model = LogisticRegressionModel()
criterion = nn.BCELoss()
optimizer = optim.SGD(model.parameters(),lr =0.01)
for epoch in range(10000):
y_pred = model(x_data)
loss = criterion(y_pred,y_data) # 計(jì)算損失值
if epoch % 1000 == 0:
print(epoch,loss.item()) # 打印損失值
optimizer.zero_grad() # 梯度清零
loss.backward() # 反向傳播
optimizer.step() # 梯度更新
w = model.linear.weight[0] # 取出訓(xùn)練完成的結(jié)果
w0 = w[0]
w1 = w[1]
b = model.linear.bias.item()
with torch.no_grad(): # 繪制決策邊界,這里不需要計(jì)算梯度
x= torch.arange(0,3).view(-1,1)
y = (- w0 * x - b) / w1
plt.plot(x.numpy(),y.numpy())
plt.scatter(pos_x,pos_y,c='r')
plt.scatter(neg_x,neg_y,c='b')
plt.xlim(0,2)
plt.ylim(0,2)
plt.show()
程序結(jié)果
原文鏈接:https://blog.csdn.net/qq_44886601/article/details/127284028
相關(guān)推薦
- 2024-04-03 Map+函數(shù)式接口(替換if-else)
- 2022-10-22 C++中vector的常用接口詳析說(shuō)明_C 語(yǔ)言
- 2023-01-28 python元組的可變與不可變問(wèn)題_python
- 2023-07-26 TypeScript的類型推導(dǎo)
- 2022-02-18 Zabbix Database error
- 2022-08-17 C++詳解鏈棧的實(shí)現(xiàn)_C 語(yǔ)言
- 2022-12-29 Android?Fragment的具體使用方式詳解_Android
- 2024-01-14 “xxx“ is not an enclosing class 解決辦法
- 最近更新
-
- window11 系統(tǒng)安裝 yarn
- 超詳細(xì)win安裝深度學(xué)習(xí)環(huán)境2025年最新版(
- Linux 中運(yùn)行的top命令 怎么退出?
- MySQL 中decimal 的用法? 存儲(chǔ)小
- get 、set 、toString 方法的使
- @Resource和 @Autowired注解
- Java基礎(chǔ)操作-- 運(yùn)算符,流程控制 Flo
- 1. Int 和Integer 的區(qū)別,Jav
- spring @retryable不生效的一種
- Spring Security之認(rèn)證信息的處理
- Spring Security之認(rèn)證過(guò)濾器
- Spring Security概述快速入門(mén)
- Spring Security之配置體系
- 【SpringBoot】SpringCache
- Spring Security之基于方法配置權(quán)
- redisson分布式鎖中waittime的設(shè)
- maven:解決release錯(cuò)誤:Artif
- restTemplate使用總結(jié)
- Spring Security之安全異常處理
- MybatisPlus優(yōu)雅實(shí)現(xiàn)加密?
- Spring ioc容器與Bean的生命周期。
- 【探索SpringCloud】服務(wù)發(fā)現(xiàn)-Nac
- Spring Security之基于HttpR
- Redis 底層數(shù)據(jù)結(jié)構(gòu)-簡(jiǎn)單動(dòng)態(tài)字符串(SD
- arthas操作spring被代理目標(biāo)對(duì)象命令
- Spring中的單例模式應(yīng)用詳解
- 聊聊消息隊(duì)列,發(fā)送消息的4種方式
- bootspring第三方資源配置管理
- GIT同步修改后的遠(yuǎn)程分支