日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

簡單聊聊PyTorch里面的torch.nn.Parameter()_python

作者:VanJordan ? 更新時間: 2022-04-27 編程語言

在刷官方Tutorial的時候發現了一個用法self.v = torch.nn.Parameter(torch.FloatTensor(hidden_size)),看了官方教程里面的解釋也是云里霧里,于是在棧溢網看到了一篇解釋,并做了幾個實驗才算完全理解了這個函數。首先可以把這個函數理解為類型轉換函數,將一個不可訓練的類型Tensor轉換成可以訓練的類型parameter并將這個parameter綁定到這個module里面(net.parameter()中就有這個綁定的parameter,所以在參數優化的時候可以進行優化的),所以經過類型轉換這個self.v變成了模型的一部分,成為了模型中根據訓練可以改動的參數了。使用這個函數的目的也是想讓某些變量在學習的過程中不斷的修改其值以達到最優化。

出現這個函數的地方

在concat注意力機制中,權值V是不斷學習的所以要是parameter類型。

通過做下面的實驗發現,linear里面的weight和bias就是parameter類型,且不能夠使用tensor類型替換,還有linear里面的weight甚至可能通過指定一個不同于初始化時候的形狀進行模型的更改。

做的實驗

self.v被綁定到模型中了,所以可以在訓練的時候優化

與torch.tensor([1,2,3],requires_grad=True)的區別,這個只是將參數變成可訓練的,并沒有綁定在module的parameter列表中。

總結

原文鏈接:https://www.jianshu.com/p/d8b77cc02410

欄目分類
最近更新