請(qǐng)問轉(zhuǎn)化為[seq_len,batch_size]的形式是必要的嗎熊锭?有時(shí)候看到輸入也可以是[batch_size, seq_len]維度的哎
通俗講解pytorch中nn.Embedding原理及使用函數(shù)調(diào)用形式 其為一個(gè)簡(jiǎn)單的存儲(chǔ)固定大小的詞典的嵌入向量的查找表茫经,意思就是說,給一個(gè)編號(hào)彰亥,嵌入層就能返回這個(gè)編號(hào)對(duì)應(yīng)的嵌入向量,嵌入向量反映了各個(gè)編號(hào)代表的符號(hào)之間的語義關(guān)系...