ML經(jīng)典網(wǎng)絡(luò)

CNN

Multi-head Attention

import torch
import torch.nn as nn

device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

class MultiHeadSelfAttention(nn.Module):
    def __init__(self, hidden_dim, num_heads):
        super(MultiHeadSelfAttention, self).__init__()
        assert hidden_dim % num_heads == 0, "Hidden dimension must be divisible by number of heads"

        self.num_heads = num_heads
        self.head_dim = hidden_dim // num_heads

        self.query_matrix = nn.Linear(hidden_dim, hidden_dim)
        self.key_matrix = nn.Linear(hidden_dim, hidden_dim)
        self.value_matrix = nn.Linear(hidden_dim, hidden_dim)

        self.dropout = nn.Dropout(0.1)
        self.fc_out = nn.Linear(hidden_dim, hidden_dim)

        self.scale = torch.sqrt(torch.FloatTensor([self.head_dim])).to(device)
    
    def forward(self, x):
        """
            x: [batch_size, seq_len, hidden_dim]
        """
        batch_size, seq_len, _ = x.shape

        # Transform the inputs to (batch_size, seq_len, num_heads, head_dim)
        Q = self.query_matrix(x).view(batch_size, seq_len, self.num_heads, self.head_dim)
        K = self.key_matrix(x).view(batch_size, seq_len, self.num_heads, self.head_dim)
        V = self.value_matrix(x).view(batch_size, seq_len, self.num_heads, self.head_dim)

        # Transpose for matrix multiplication: (batch_size, num_heads, seq_len, head_dim)
        Q = Q.transpose(1, 2)
        K = K.transpose(1, 2)
        V = V.transpose(1, 2)

        # Calculate attention scores and apply scaling
        scores = torch.matmul(Q, K.transpose(-2, -1)) / self.scale

        # Apply softmax to get attention weights and dropout
        attn_weights = torch.softmax(scores, dim=-1)
        attn_weights = self.dropout(attn_weights)

        # Multiply the attention weights with V
        output = torch.matmul(attn_weights, V)  # (batch_size, num_heads, seq_len, head_dim)

        # Concatenate heads and put through final linear layer
        output = output.transpose(1, 2).contiguous().view(batch_size, seq_len, -1) # (batch_size, seq_len, hidden_dim)
        output = self.fc_out(output)

        return output

Self Attention

import torch
import torch.nn as nn

device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
class SelfAttention(nn.Module):
    def __init__(self, hidden_dim):
        super(SelfAttention, self).__init__()

        self.qurey_matrix = nn.Linear(hidden_dim, hidden_dim)
        self.key_matrix = nn.Linear(hidden_dim, hidden_dim)
        self.value_matrix = nn.Linear(hidden_dim, hidden_dim)

        self.dropout = nn.Dropout(0.1)
        self.scale = torch.sqrt(torch.FloatTensor([hidden_dim])).to(device)
    
    def forward(self, x):
        """
            x: [batch_size, seq_len, hidden_dim]
        """
        batch_size, seq_len, hidden_dim = x.shape

        Q = self.qurey_matrix(x) # [batch_size, seq_len, hidden_dim]
        K = self.key_matrix(x)  # [batch_size, seq_len, hidden_dim]
        V = self.value_matrix(x) # [batch_size, seq_len, hidden_dim]

        scores = torch.matmul(Q, K.transpose(1, 2))
        scores = scores / self.scale

        attn_weights = torch.softmax(scores, dim=-1) # [batch_size, seq_len, seq_len]
        attn_weights = self.dropout(attn_weights)

        output = torch.matmul(attn_weights, V) # [batch_size, seq_len, hidden_dim]

        return output

d_model = 256
num_heads = 8

attention = SelfAttention(d_model)
attention = attention.to(device)
x = torch.randn(32, 100, d_model) # [batch_size, seq_len, hidden_dim]
x = x.to(device)
output = attention(x)
print(x.shape)
print(output.shape)

Transformer

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末触徐,一起剝皮案震驚了整個(gè)濱河市玛界,隨后出現(xiàn)的幾起案子寝贡,更是在濱河造成了極大的恐慌唬渗,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,635評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件苦丁,死亡現(xiàn)場(chǎng)離奇詭異浸颓,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,543評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門(mén)猾愿,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)鹦聪,“玉大人,你說(shuō)我怎么就攤上這事蒂秘≡蟊荆” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 168,083評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵姻僧,是天一觀(guān)的道長(zhǎng)规丽。 經(jīng)常有香客問(wèn)我,道長(zhǎng)撇贺,這世上最難降的妖魔是什么赌莺? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 59,640評(píng)論 1 296
  • 正文 為了忘掉前任,我火速辦了婚禮松嘶,結(jié)果婚禮上艘狭,老公的妹妹穿的比我還像新娘。我一直安慰自己翠订,他們只是感情好巢音,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,640評(píng)論 6 397
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著尽超,像睡著了一般官撼。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上似谁,一...
    開(kāi)封第一講書(shū)人閱讀 52,262評(píng)論 1 308
  • 那天傲绣,我揣著相機(jī)與錄音,去河邊找鬼巩踏。 笑死秃诵,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的塞琼。 我是一名探鬼主播顷链,決...
    沈念sama閱讀 40,833評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼屈梁!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起榛了,我...
    開(kāi)封第一講書(shū)人閱讀 39,736評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤在讶,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后霜大,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體构哺,經(jīng)...
    沈念sama閱讀 46,280評(píng)論 1 319
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,369評(píng)論 3 340
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了曙强。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片残拐。...
    茶點(diǎn)故事閱讀 40,503評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖碟嘴,靈堂內(nèi)的尸體忽然破棺而出溪食,到底是詐尸還是另有隱情,我是刑警寧澤娜扇,帶...
    沈念sama閱讀 36,185評(píng)論 5 350
  • 正文 年R本政府宣布错沃,位于F島的核電站,受9級(jí)特大地震影響雀瓢,放射性物質(zhì)發(fā)生泄漏枢析。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,870評(píng)論 3 333
  • 文/蒙蒙 一刃麸、第九天 我趴在偏房一處隱蔽的房頂上張望醒叁。 院中可真熱鬧,春花似錦泊业、人聲如沸把沼。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,340評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)智政。三九已至,卻和暖如春箱蝠,著一層夾襖步出監(jiān)牢的瞬間续捂,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,460評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工宦搬, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留牙瓢,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,909評(píng)論 3 376
  • 正文 我出身青樓间校,卻偏偏與公主長(zhǎng)得像矾克,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子憔足,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,512評(píng)論 2 359

推薦閱讀更多精彩內(nèi)容