圖像增廣 圖像增廣(image augmentation)技術(shù)通過對訓(xùn)練圖像做一系列隨機(jī)改變,來產(chǎn)生相似但又不同的訓(xùn)練樣本酗电,從而擴(kuò)大訓(xùn)練數(shù)據(jù)集的...
在源數(shù)據(jù)集(如ImageNet數(shù)據(jù)集)上預(yù)訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)模型,即源模型 創(chuàng)建一個新的神經(jīng)網(wǎng)絡(luò)模型,即目標(biāo)模型吞获。它復(fù)制了源模型上除了輸出層外的所...
使用文本情感分類來分析文本作者的情緒 同搜索近義詞和類比詞一樣羽嫡,文本分類也屬于詞嵌入的下游應(yīng)用 建模步驟 文本情感分類數(shù)據(jù) ——讀取數(shù)據(jù) ——預(yù)...
全局向量的詞嵌入(GloVe) GloVe模型采用了平方損失渤弛,并基于該損失對跳字模型做了3點改動 在有些情況下,交叉熵?fù)p失函數(shù)有劣勢滤愕,GloVe...
把詞映射為實數(shù)域向量的技術(shù)也叫詞嵌入 跳字模型 假設(shè)基于某個詞來生成它在文本序列周圍的詞 每個詞被表示成兩個 d維向量,用來計算條件概率 訓(xùn)練中...
機(jī)器翻譯(MT):將一段文本從一種語言自動翻譯為另一種語言怜校,用神經(jīng)網(wǎng)絡(luò)解決這個問題通常稱為神經(jīng)機(jī)器翻譯(NMT) 主要特征:輸出是單詞序列而不是...
動量法 設(shè)時間步t的自變量為xt间影,學(xué)習(xí)率為ηt。在時間步0茄茁,動量法創(chuàng)建速度變量v0魂贬,并將其元素初始化成0。在時間步t>0裙顽,動量法對每次迭代的步驟...
使用適當(dāng)?shù)膶W(xué)習(xí)率付燥,沿著梯度反方向更新自變量可能降低目標(biāo)函數(shù)值,梯度下降重復(fù)這一更新過程直到得到滿足要求的解 學(xué)習(xí)率過大或過小都有問題愈犹,一個合適的...
盡管優(yōu)化方法可以最小化深度學(xué)習(xí)中的損失函數(shù)值键科,但本質(zhì)上優(yōu)化方法達(dá)到的目標(biāo)與深度學(xué)習(xí)的目標(biāo)并不相同 優(yōu)化方法目標(biāo):訓(xùn)練集損失函數(shù)值 深度學(xué)習(xí)目標(biāo):...