網站首頁 編程語言 正文
Pytorch中retain_graph的坑
在查看SRGAN源碼時有如下損失函數,其中設置了retain_graph=True,其作用就是
在更新D網絡時的loss反向傳播過程中使用了retain_graph=True,目的為是為保留該過程中計算的梯度,后續G網絡更新時使用;
?? ??? ?############################ ? ? ? ? # (1) Update D network: maximize D(x)-1-D(G(z)) ? ? ? ? ########################### ? ? ? ? real_img = Variable(target) ? ? ? ? if torch.cuda.is_available(): ? ? ? ? ? ? real_img = real_img.cuda() ? ? ? ? z = Variable(data) ? ? ? ? if torch.cuda.is_available(): ? ? ? ? ? ? z = z.cuda() ? ? ? ? fake_img = netG(z) ? ? ? ? ? netD.zero_grad() ? ? ? ? real_out = netD(real_img).mean() ? ? ? ? fake_out = netD(fake_img).mean() ? ? ? ? d_loss = 1 - real_out + fake_out ? ? ? ? d_loss.backward(retain_graph=True) ##### ? ? ? ? optimizerD.step() ? ? ? ? ? ############################ ? ? ? ? # (2) Update G network: minimize 1-D(G(z)) + Perception Loss + Image Loss + TV Loss ? ? ? ? ########################### ? ? ? ? netG.zero_grad() ? ? ? ? g_loss = generator_criterion(fake_out, fake_img, real_img) ? ? ? ? g_loss.backward() ? ? ? ? optimizerG.step() ? ? ? ? fake_img = netG(z) ? ? ? ? fake_out = netD(fake_img).mean() ? ? ? ? ? g_loss = generator_criterion(fake_out, fake_img, real_img) ? ? ? ? running_results['g_loss'] += g_loss.data[0] * batch_size ? ? ? ? d_loss = 1 - real_out + fake_out ? ? ? ? running_results['d_loss'] += d_loss.data[0] * batch_size ? ? ? ? running_results['d_score'] += real_out.data[0] * batch_size ? ? ? ? running_results['g_score'] += fake_out.data[0] * batch_size
也就是說,只要我們有一個loss,我們就可以先loss.backward(retain_graph=True) ?讓它先計算梯度,若下面還有其他損失,但是可能你想擴展代碼,可能有些loss是不用的,所以先加了 if 等判別語句進行了干預,使用loss.backward(retain_graph=True)就可以單獨的計算梯度,屢試不爽。
但是另外一個問題在于,如果你都這么用的話,顯存會爆炸,因為他保留了梯度,所以都沒有及時釋放掉,浪費資源。
而正確的做法應該是,在你最后一個loss 后面,一定要加上loss.backward()這樣的形式,也就是讓最后一個loss 釋放掉之前所有暫時保存下來得梯度!!
Pytorch中有多次backward時需要retain_graph參數
Pytorch中的機制是每次調用loss.backward()時都會free掉計算圖中所有緩存的buffers,當模型中可能有多次backward()時,因為前一次調用backward()時已經釋放掉了buffer,所以下一次調用時會因為buffers不存在而報錯
解決辦法
loss.backward(retain_graph=True)
錯誤使用
-
optimizer.zero_grad()
清空過往梯度; -
loss1.backward(retain_graph=True)
反向傳播,計算當前梯度; -
loss2.backward(retain_graph=True)
反向傳播,計算當前梯度; -
optimizer.step()
根據梯度更新網絡參數
因為每次調用bckward時都沒有將buffers釋放掉,所以會導致內存溢出,迭代越來越慢(因為梯度都保存了,沒有free)
正確使用
-
optimizer.zero_grad()
清空過往梯度; -
loss1.backward(retain_graph=True)
反向傳播,計算當前梯度; -
loss2.backward()
反向傳播,計算當前梯度; -
optimizer.step()
根據梯度更新網絡參數
最后一個 backward() 不要加 retain_graph 參數,這樣每次更新完成后會釋放占用的內存,也就不會出現越來越慢的情況了
總結
原文鏈接:https://blog.csdn.net/Willen_/article/details/89394766
- 上一篇:沒有了
- 下一篇:沒有了
相關推薦
- 2022-07-28 docker容器間進行數據共享的三種實現方式_docker
- 2022-08-11 C#使用DoddleReport快速生成報表_C#教程
- 2022-04-28 C語言動態開辟內存詳解_C 語言
- 2022-09-17 C/C++?中實現讓控制臺暫停的方法_C 語言
- 2022-06-12 C語言詳解數據結構與算法中枚舉和模擬及排序_C 語言
- 2022-07-29 PyTorch實現手寫數字的識別入門小白教程_python
- 2022-12-21 PyGame實現初始化導入所有模塊方法詳解_python
- 2022-05-23 iOS實現垂直滑動條效果_IOS
- 欄目分類
-
- 最近更新
-
- window11 系統安裝 yarn
- 超詳細win安裝深度學習環境2025年最新版(
- Linux 中運行的top命令 怎么退出?
- MySQL 中decimal 的用法? 存儲小
- get 、set 、toString 方法的使
- @Resource和 @Autowired注解
- Java基礎操作-- 運算符,流程控制 Flo
- 1. Int 和Integer 的區別,Jav
- spring @retryable不生效的一種
- Spring Security之認證信息的處理
- Spring Security之認證過濾器
- Spring Security概述快速入門
- Spring Security之配置體系
- 【SpringBoot】SpringCache
- Spring Security之基于方法配置權
- redisson分布式鎖中waittime的設
- maven:解決release錯誤:Artif
- restTemplate使用總結
- Spring Security之安全異常處理
- MybatisPlus優雅實現加密?
- Spring ioc容器與Bean的生命周期。
- 【探索SpringCloud】服務發現-Nac
- Spring Security之基于HttpR
- Redis 底層數據結構-簡單動態字符串(SD
- arthas操作spring被代理目標對象命令
- Spring中的單例模式應用詳解
- 聊聊消息隊列,發送消息的4種方式
- bootspring第三方資源配置管理
- GIT同步修改后的遠程分支