日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學(xué)無先后,達(dá)者為師

網(wǎng)站首頁 編程語言 正文

pytorch中使用LSTM詳解_python

作者:qyhyzard ? 更新時間: 2022-09-19 編程語言

LSMT層

可以在troch.nn模塊中找到LSTM類

lstm = torch.nn.LSTM(*paramsters)

1、__init__方法

首先對nn.LSTM類進(jìn)行實例化,需要傳入的參數(shù)如下圖所示:

一般我們關(guān)注這4個:

  • input_size表示輸入的每個token的維度,也可以理解為一個word的embedding的維度。
  • hidden_size表示隱藏層也就是記憶單元C的維度,也可以理解為要將一個word的embedding維度轉(zhuǎn)變成另一個大小的維度。除了C,在LSTM中輸出的H的維度與C的維度是一致的。
  • num_layers表示有多少層LSTM,加深網(wǎng)絡(luò)的深度,這個參數(shù)對LSTM的輸出的維度是有影響的(后文會提到)。
  • bidirectional表示是否需要雙向LSTM,這個參數(shù)也會對后面的輸出有影響。

2、forward方法的輸入

將數(shù)據(jù)input傳入forward方法進(jìn)行前向傳播時有3個參數(shù)可以輸入,見下圖:

  • 這里要注意的是input參數(shù)各個維度的意義,一般來說如果不在實例化時制定batch_first=True,那么input的第一個維度是輸入句子的長度seq_len,第二個維度是批量的大小,第三個維度是輸入句子的embedding維度也就是input_size,這個參數(shù)要與__init__方法中的第一個參數(shù)對應(yīng)。
  • 另外記憶細(xì)胞中的兩個參數(shù)h_0c_0可以選擇自己初始化傳入也可以不傳,系統(tǒng)默認(rèn)是都初始化為0。傳入的話注意維度[bidirectional * num_layers, batch_size, hidden_size]。

3、forward方法的輸出

forward方法的輸出如下圖所示:

一般采用如下形式:

out,(h_n, c_n) = lstm(x)

out表示在最后一層上,每一個時間步的輸出,也就是句子有多長,這個out的輸出就有多長;其維度為[seq_len, batch_size, hidden_size * bidirectional]。因為如果的雙向LSTM,最后一層的輸出會把正向的和反向的進(jìn)行拼接,故需要hidden_size * bidirectional。h_n表示的是每一層(雙向算兩層)在最后一個時間步上的輸出;其維度為[bidirectional * num_layers, batch_size, hidden_size]
假設(shè)是雙向的LSTM,且是3層LSTM,雙向每個方向算一層,兩個方向的組合起來叫一層LSTM,故共會有6層(3個正向,3個反向)。所以h_n是每層的輸出,bidirectional * num_layers = 6。c_n表示的是每一層(雙向算兩層)在最后一個時間步上的記憶單元,意義不同,但是其余均與 h_n一樣。

LSTMCell

可以在troch.nn模塊中找到LSTMCell類

lstm = torch.nn.LSTMCell(*paramsters)

它的__init__方法的參數(shù)設(shè)置與LSTM類似,但是沒有num_layers參數(shù),因為這就是一個細(xì)胞單元,談不上多少層和是否雙向。
forward輸入和輸出與LSTM均有所不同:

其相比LSTM,輸入沒有了時間步的概念,因為只有一個Cell單元;輸出 也沒有out參數(shù),因為就一個Cell,out就是h_1h_1c_1也因為只有一個Cell單元,其沒有層數(shù)上的意義,故只是一個Cell的輸出的維度[batch_size, hidden_size].

代碼演示如下:

rnn = nn.LSTMCell(10, 20) # (input_size, hidden_size)
input = torch.randn(2, 3, 10) # (time_steps, batch, input_size)
hx = torch.randn(3, 20) # (batch, hidden_size)
cx = torch.randn(3, 20)
output = []
# 從輸入的第一個維度也就是seq_len上遍歷,每循環(huán)一次,輸入一個單詞
for i in range(input.size()[0]):
		# 更新細(xì)胞記憶單元
        hx, cx = rnn(input[i], (hx, cx))
        # 將每個word作為輸入的輸出存起來,相當(dāng)于LSTM中的out
        output.append(hx)
output = torch.stack(output, dim=0)

原文鏈接:https://blog.csdn.net/qq_42961603/article/details/119638341

欄目分類
最近更新