網站首頁 編程語言 正文
optim.Adam()解讀
torch.optim是一個實現了多種優化算法的包,大多數通用的方法都已支持,提供了豐富的接口調用,未來更多精煉的優化算法也將整合進來。
為了使用torch.optim,需先構造一個優化器對象Optimizer,用來保存當前的狀態,并能夠根據計算得到的梯度來更新參數。
要構建一個優化器optimizer,你必須給它一個可進行迭代優化的包含了所有參數(所有的參數必須是變量s)的列表。 然后,您可以指定程序優化特定的選項,例如學習速率,權重衰減等。
optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum=0.9) optimizer = optim.Adam([var1, var2], lr = 0.0001) self.optimizer_D_B = torch.optim.Adam(self.netD_B.parameters(), lr=opt.lr, betas=(opt.beta1, 0.999))
-
Optimizer
還支持指定每個參數選項。 只需傳遞一個可迭代的dict來替換先前可迭代的Variable。 -
dict
中的每一項都可以定義為一個單獨的參數組,參數組用一個params鍵來包含屬于它的參數列表。
其他鍵應該與優化器接受的關鍵字參數相匹配,才能用作此組的優化選項。
optim.SGD([ ? ? ? ? ? ? ? ? {'params': model.base.parameters()}, ? ? ? ? ? ? ? ? {'params': model.classifier.parameters(), 'lr': 1e-3} ? ? ? ? ? ? ], lr=1e-2, momentum=0.9)
如上,model.base.parameters()將使用1e-2的學習率,model.classifier.parameters()將使用1e-3的學習率。0.9的momentum作用于所有的parameters。
優化步驟
所有的優化器Optimizer都實現了step()方法來對所有的參數進行更新,它有兩種調用方法:
optimizer.step()
這是大多數優化器都支持的簡化版本,使用如下的backward()方法來計算梯度的時候會調用它。
for input, target in dataset: ? ? optimizer.zero_grad() ? ? output = model(input) ? ? loss = loss_fn(output, target) ? ? loss.backward() ? ? optimizer.step()
optimizer.step(closure)
一些優化算法,如共軛梯度和LBFGS需要重新評估目標函數多次,所以你必須傳遞一個closure以重新計算模型。 closure必須清除梯度,計算并返回損失。
for input, target in dataset: ? ? def closure(): ? ? ? ? optimizer.zero_grad() ? ? ? ? output = model(input) ? ? ? ? loss = loss_fn(output, target) ? ? ? ? loss.backward() ? ? ? ? return loss ? ? optimizer.step(closure)
Adam算法
adam算法來源:Adam: A Method for Stochastic Optimization
Adam(Adaptive Moment Estimation)本質上是帶有動量項的RMSprop,它利用梯度的一階矩估計和二階矩估計動態調整每個參數的學習率。它的優點主要在于經過偏置校正后,每一次迭代學習率都有個確定范圍,使得參數比較平穩。
其公式如下
其中,前兩個公式分別是對梯度的一階矩估計和二階矩估計,可以看作是對期望E|gt|,E|gt^2|的估計;
公式3,4是對一階二階矩估計的校正,這樣可以近似為對期望的無偏估計。可以看出,直接對梯度的矩估計對內存沒有額外的要求,而且可以根據梯度進行動態調整。
最后一項前面部分是對學習率n形成的一個動態約束,而且有明確的范圍。
class torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)
參數
-
params(iterable)
:可用于迭代優化的參數或者定義參數組的dicts。 -
lr (float, optional)
:學習率(默認: 1e-3) -
betas (Tuple[float, float], optional)
:用于計算梯度的平均和平方的系數(默認: (0.9, 0.999)) -
eps (float, optional)
:為了提高數值穩定性而添加到分母的一個項(默認: 1e-8) -
weight_decay (float, optional)
:權重衰減(如L2懲罰)(默認: 0) -
step(closure=None)
函數:執行單一的優化步驟 -
closure (callable, optional)
:用于重新評估模型并返回損失的一個閉包?
torch.optim.adam源碼
import math from .optimizer import Optimizer class Adam(Optimizer): ? ? def __init__(self, params, lr=1e-3, betas=(0.9, 0.999), eps=1e-8,weight_decay=0): ? ? ? ? defaults = dict(lr=lr, betas=betas, eps=eps,weight_decay=weight_decay) ? ? ? ? super(Adam, self).__init__(params, defaults) ? ? def step(self, closure=None): ? ? ? ? loss = None ? ? ? ? if closure is not None: ? ? ? ? ? ? loss = closure() ? ? ? ? for group in self.param_groups: ? ? ? ? ? ? for p in group['params']: ? ? ? ? ? ? ? ? if p.grad is None: ? ? ? ? ? ? ? ? ? ? continue ? ? ? ? ? ? ? ? grad = p.grad.data ? ? ? ? ? ? ? ? state = self.state[p] ? ? ? ? ? ? ? ? # State initialization ? ? ? ? ? ? ? ? if len(state) == 0: ? ? ? ? ? ? ? ? ? ? state['step'] = 0 ? ? ? ? ? ? ? ? ? ? # Exponential moving average of gradient values ? ? ? ? ? ? ? ? ? ? state['exp_avg'] = grad.new().resize_as_(grad).zero_() ? ? ? ? ? ? ? ? ? ? # Exponential moving average of squared gradient values ? ? ? ? ? ? ? ? ? ? state['exp_avg_sq'] = grad.new().resize_as_(grad).zero_() ? ? ? ? ? ? ? ? exp_avg, exp_avg_sq = state['exp_avg'], state['exp_avg_sq'] ? ? ? ? ? ? ? ? beta1, beta2 = group['betas'] ? ? ? ? ? ? ? ? state['step'] += 1 ? ? ? ? ? ? ? ? if group['weight_decay'] != 0: ? ? ? ? ? ? ? ? ? ? grad = grad.add(group['weight_decay'], p.data) ? ? ? ? ? ? ? ? # Decay the first and second moment running average coefficient ? ? ? ? ? ? ? ? exp_avg.mul_(beta1).add_(1 - beta1, grad) ? ? ? ? ? ? ? ? exp_avg_sq.mul_(beta2).addcmul_(1 - beta2, grad, grad) ? ? ? ? ? ? ? ? denom = exp_avg_sq.sqrt().add_(group['eps']) ? ? ? ? ? ? ? ? bias_correction1 = 1 - beta1 ** state['step'] ? ? ? ? ? ? ? ? bias_correction2 = 1 - beta2 ** state['step'] ? ? ? ? ? ? ? ? step_size = group['lr'] * math.sqrt(bias_correction2) / bias_correction1 ? ? ? ? ? ? ? ? p.data.addcdiv_(-step_size, exp_avg, denom) ? ? ? ? return loss
Adam的特點有
1、結合了Adagrad善于處理稀疏梯度和RMSprop善于處理非平穩目標的優點;
2、對內存需求較小;
3、為不同的參數計算不同的自適應學習率;
4、也適用于大多非凸優化-適用于大數據集和高維空間。
原文鏈接:https://blog.csdn.net/KGzhang/article/details/77479737
相關推薦
- 2022-08-21 GoLang讀取文件的10種方法實例_Golang
- 2022-04-20 C++中的函數你真的理解了嗎_C 語言
- 2022-07-06 pandas實現一行拆分成多行_python
- 2022-07-28 C語言實現會員計費系統_C 語言
- 2022-06-27 nginx中配置使用proxy?protocol協議的全過程_nginx
- 2022-07-18 SQL?Server中的數據類型詳解_MsSql
- 2023-05-30 Pandas中DataFrame對象轉置(交換行列)_python
- 2022-09-14 C語言指針如何實現字符串逆序反轉_C 語言
- 最近更新
-
- window11 系統安裝 yarn
- 超詳細win安裝深度學習環境2025年最新版(
- Linux 中運行的top命令 怎么退出?
- MySQL 中decimal 的用法? 存儲小
- get 、set 、toString 方法的使
- @Resource和 @Autowired注解
- Java基礎操作-- 運算符,流程控制 Flo
- 1. Int 和Integer 的區別,Jav
- spring @retryable不生效的一種
- Spring Security之認證信息的處理
- Spring Security之認證過濾器
- Spring Security概述快速入門
- Spring Security之配置體系
- 【SpringBoot】SpringCache
- Spring Security之基于方法配置權
- redisson分布式鎖中waittime的設
- maven:解決release錯誤:Artif
- restTemplate使用總結
- Spring Security之安全異常處理
- MybatisPlus優雅實現加密?
- Spring ioc容器與Bean的生命周期。
- 【探索SpringCloud】服務發現-Nac
- Spring Security之基于HttpR
- Redis 底層數據結構-簡單動態字符串(SD
- arthas操作spring被代理目標對象命令
- Spring中的單例模式應用詳解
- 聊聊消息隊列,發送消息的4種方式
- bootspring第三方資源配置管理
- GIT同步修改后的遠程分支