網站首頁 編程語言 正文
pytorch backward()方法自動求梯度
1、區分源張量和結果張量
x = torch.arange(-8.0, 8.0, 0.1, requires_grad= True) y = x.relu()
x為源張量,基于源張量x得到的張量y為結果張量。
2、如何使用backward()方法自動求梯度
一個標量調用它的backward()方法后,會根據鏈式法則自動計算出源張量的梯度值。
2.1、結果張量是一維張量
基于以上例子,就是將一維張量y變成標量后,然后通過調用backward()方法,就能自動計算出x的梯度值。
那么,如何將一維張量y變成標量呢?
一般通過對一維張量y進行求和來實現,即y.sum()。
一個一維張量就是一個向量,對一維張量求和等同于這個向量點乘一個等維的單位向量,使用求和得到的標量y.sum()對源張量x求導與y的每個元素對x的每個元素求導結果是一樣的,最終對源張量x的梯度求解沒有影響。
因此,代碼如下:
y.sum().backward()? x.grad
2.2、結果張量是二維張量或更高維張量
撇開上面例子,結果變量y可能是二維張量或者更高維的張量,這時可以理解為一般點乘一個等維的單位張量(點乘,是向量中的概念,這樣描述只是方便理解)
代碼如下:
y.backward(torch.ones_like(y))#grad_tensors=torch.ones_like(y) x.grad
pytorch中的梯度計算
什么是梯度?
在一元函數中,某點的梯度標的就說某點的導數. 在多元函數中某點的梯度表示的是由每個自變量所對應的偏導數所組成的向量
在前面的線性回歸中 就像y = wx + b方程中求出w參數最優的解,就需要對w參數進行偏導數的求取,然后通過偏導數的值來調整w參數以便找到最優解。
自動計算梯度和偏導數
在PyTorch中可以使用torch.autograd.backward()方法來自動計算梯度
在定義張量時,可以指定requires_grad=True表示這個張量可以求偏導數
import torch # 隨機出張量x 指定可以計算偏導數 x = torch.randn(1,requires_grad=True) # y和z張量不可以求偏導 y = torch.randn(1) z = torch.randn(1) # f1中有張量允許求偏導 f1 = 2*x + y # f2中沒有張量可以允許求偏導 f2 = y + z # 打印兩個方程的梯度 print(f1.grad_fn) print(f2.grad_fn)
得出結論:
- f1中有允許可以求偏導的張量存在才可以求梯度
- grad_fn為梯度
1. 求x的偏導數
# 可以求梯度的變量先使用backward()反向傳播 f1.backward() # 使用張量的grad屬性拿到偏導數的值 x.grad
2. 停止梯度的計算
張量.requires_grad_(False)
# 創建張量 指定可以求偏導 a = torch.randn(2,2,requires_grad=True) # a對應的b變量 b = ((a * 3)/(a - 1)) # 查看梯度 print(b.grad_fn) # 停止a張量可以求偏導 a.requires_grad_(False) # 再次指定b對應變量 b = ((a * 3) / (a - 1)) # 為None了 print(b.grad_fn)
3. 獲取到可以求偏導數的張量相同的內容,但是新變量不可以求偏導
張量.detach()方法
a = torch.randn(2,2,requires_grad=True) # 可以求偏導的張量返回一個相同的張量但是不可以求偏導數 b = a.detach() print(a.requires_grad) print(b.requires_grad)
4. 在作用域中張量不可計算偏導數
with torch.no_grad(): 內的整個作用域
a = torch.randn(2, 2, requires_grad=True) print((a ** 2).requires_grad) with torch.no_grad(): print((a ** 2).requires_grad)
梯度的清空
在PyTorch中,如果我們利用torch.autograd.backward()方法
求解張量的梯度, 在多次運行該函數的情況下, 該函數會將計算得到的梯度累加起來。
所以在函數中計算張量的偏導數,每次計算完修改完參數要清空梯度的計算。
不清空梯度計算:
x = torch.ones(4, requires_grad=True) y = (2*x + 1).sum() z = (2*x).sum() y.backward() print("第一次偏導:",x.grad) z.backward() print("第二次偏導:",x.grad)
會累加
使用張量.grad.zero_()方法清空梯度的計算:
x = torch.ones(4, requires_grad=True) y = (2*x + 1).sum() z = (2*x).sum() y.backward() x.grad.zero_() print("第一次偏導:",x.grad) z.backward() print("第二次偏導:",x.grad)
總結
原文鏈接:https://blog.csdn.net/Mr____Cheng/article/details/118420367
- 上一篇:沒有了
- 下一篇:沒有了
相關推薦
- 2022-05-25 Properties與ResourceBundle的基本使用以及區別
- 2023-05-30 Jquery使用原生AJAX方法請求數據_jquery
- 2022-03-09 GO使用socket和channel實現簡單控制臺聊天室_Golang
- 2023-08-01 前端傳遞對象數組,后端使用list接收并解析
- 2023-11-18 Python將字符串String轉換成要使用的變量
- 2023-07-15 uni-app 組件與頁面事件傳值 this.$emit
- 2022-08-15 springboot切換為redis緩存
- 2022-09-08 Docker容器使用方法詳解_docker
- 欄目分類
-
- 最近更新
-
- window11 系統安裝 yarn
- 超詳細win安裝深度學習環境2025年最新版(
- Linux 中運行的top命令 怎么退出?
- MySQL 中decimal 的用法? 存儲小
- get 、set 、toString 方法的使
- @Resource和 @Autowired注解
- Java基礎操作-- 運算符,流程控制 Flo
- 1. Int 和Integer 的區別,Jav
- spring @retryable不生效的一種
- Spring Security之認證信息的處理
- Spring Security之認證過濾器
- Spring Security概述快速入門
- Spring Security之配置體系
- 【SpringBoot】SpringCache
- Spring Security之基于方法配置權
- redisson分布式鎖中waittime的設
- maven:解決release錯誤:Artif
- restTemplate使用總結
- Spring Security之安全異常處理
- MybatisPlus優雅實現加密?
- Spring ioc容器與Bean的生命周期。
- 【探索SpringCloud】服務發現-Nac
- Spring Security之基于HttpR
- Redis 底層數據結構-簡單動態字符串(SD
- arthas操作spring被代理目標對象命令
- Spring中的單例模式應用詳解
- 聊聊消息隊列,發送消息的4種方式
- bootspring第三方資源配置管理
- GIT同步修改后的遠程分支