定義兩個間距,一個用于內(nèi)容炬搭,另一個用于風(fēng)格 測量兩張圖片內(nèi)容的不同,而用來測量兩張圖片風(fēng)格的不同。然后构哺,我們輸入第三張圖片咆课,并改變這張圖片唤崭,使其與內(nèi)容圖片的內(nèi)容間距和風(fēng)格圖片...
定義兩個間距,一個用于內(nèi)容炬搭,另一個用于風(fēng)格 測量兩張圖片內(nèi)容的不同,而用來測量兩張圖片風(fēng)格的不同。然后构哺,我們輸入第三張圖片咆课,并改變這張圖片唤崭,使其與內(nèi)容圖片的內(nèi)容間距和風(fēng)格圖片...
邊界框(bounding box) 是最后定位目標(biāo)的框棕孙,是結(jié)果 anchor box 目標(biāo)檢測算法通常在輸入圖像中采樣大量區(qū)域,然后判斷這些區(qū)域是否包含我們感興趣的目標(biāo) 其中...
本是應(yīng)用于遷移學(xué)習(xí)的方法些膨,使用預(yù)訓(xùn)練的模型蟀俊,但是輸出層自己定義 定義并加載模型 剩下就是讀取數(shù)據(jù)正常訓(xùn)練了 如果不凍結(jié)前面層的參數(shù),建議前面層lr較小订雾,輸出層lr較大
讀取圖像: 翻轉(zhuǎn)和裁剪 顏色變化: 亮度(brightness)肢预、對比度(contrast)、飽和度(saturation)和色調(diào)(hue)變化 疊加以上的變化 這樣就獲得了...
矛盾 純粹的優(yōu)化方法是最小化訓(xùn)練集的損失函數(shù)而我們的目標(biāo)是測試集損失函數(shù)的最小化洼哎,也就是可以泛化而不是過擬合 需要避免的幾種情況: 局部最小值鞍點(diǎn)梯度消失 優(yōu)化的目標(biāo):凸函數(shù)...
BN層: 全連接層的BN 位置:仿射變換和激活函數(shù)之間pytorch:nn.BatchNorm1d 卷積層的BN 位置:卷積計算和激活函數(shù)之間pytorch:nn.Batch...
和seq2seq模型相似烫映,Transformer同樣基于編碼器-解碼器架構(gòu),其區(qū)別主要在于以下三點(diǎn): Transformer blocks:將seq2seq模型重的循環(huán)網(wǎng)絡(luò)替...
內(nèi)容包括: attention機(jī)制 為什么需要attention 簡介 Seq2Seq attention 為什么需要attention 由于之前的輸入文本無論長度噩峦,最后都變...
內(nèi)容包括: 機(jī)器翻譯難點(diǎn) 數(shù)據(jù)預(yù)處理 數(shù)據(jù)清洗 3.encoder-decoder結(jié)構(gòu) 機(jī)器翻譯難點(diǎn): 普通的rnn锭沟,輸入n個x,那么輸出n個y识补,但是機(jī)器翻譯輸入和輸出長度往...
內(nèi)容包括: AlexNet VGG NiN GoogLeNet 以下幾種都是常用的CNN架構(gòu) AlexNet 特征: 8層變換族淮,其中有5層卷積和2層全連接隱藏層,以及1個全連...
內(nèi)容包括: LeNet介紹 模型結(jié)構(gòu) LeNet介紹 使用全連接層的局限性: 圖像在同一列鄰近的像素在這個向量中可能相距較遠(yuǎn)。它們構(gòu)成的模式可能難以被模型識別祝辣。對于大尺寸的輸...
內(nèi)容包括: 卷積 二維卷積 特征圖和感受野 填充和步幅 4.多輸入通道和多輸出通道 池化 平均池化 最大池化 卷積 二維卷積 步驟:卷積核和矩陣點(diǎn)乘再求和贴妻,滑動卷積核再重復(fù)上...
內(nèi)容包括: GRU LSTM 雙向循環(huán)神經(jīng)網(wǎng)絡(luò) GRU R為重置門,重置門有助于捕捉時間序列里短期的依賴關(guān)系Z為更新門蝙斜,更新門有助于捕捉時間序列里長期的依賴關(guān)系 LSTM 遺...
梯度消失和梯度爆炸 梯度消失:反向傳播過程中名惩,一旦出現(xiàn)某神經(jīng)元梯度趨近于0,那么往回傳播時孕荠,由于梯度是連乘的娩鹉,那么前面的梯度都趨近于0,相當(dāng)于很多神經(jīng)元沒有訓(xùn)練 梯度爆炸:梯...
內(nèi)容包括: 訓(xùn)練誤差和泛化誤差 訓(xùn)練集底循,交叉驗證集,測試集 k折交叉驗證 過擬合和欠擬合 過擬合的解決手段 訓(xùn)練誤差和泛化誤差 訓(xùn)練誤差是在訓(xùn)練集上的誤差泛化誤差是通過訓(xùn)練集...
主要內(nèi)容包括: 循環(huán)神經(jīng)網(wǎng)絡(luò)簡介 為什么需要循環(huán)神經(jīng)網(wǎng)絡(luò) 循環(huán)神經(jīng)網(wǎng)絡(luò)架構(gòu) 循環(huán)神經(jīng)網(wǎng)絡(luò)構(gòu)造 梯度裁剪 循環(huán)神經(jīng)網(wǎng)絡(luò)簡介 為什么需要循環(huán)神經(jīng)網(wǎng)絡(luò) 根據(jù)之前提到的語言模型理論槐瑞,...
內(nèi)容包括:1.語言模型 1.語言模型和時間序列 2.n-gram 語言模型 一段文本可以看作一個離散時間序列熙涤,給定一組參數(shù)(文本中的詞),輸出這組參數(shù)的概率 n-gram 假...
內(nèi)容包括: 讀入文本 分詞 建立字典困檩,將每個詞映射到一個索引 將文本從詞的序列轉(zhuǎn)換為索引的序列 讀入文本 將文件里所有標(biāo)點(diǎn)全都去掉祠挫,劃分為一個一個句子并讀入list 分詞 每...
內(nèi)容包括: MLP簡介 與普通感知機(jī)的區(qū)別 2.為什么需要多層感知機(jī) 激活函數(shù) 1.不同激活函數(shù)介紹relusigmoidtanh 區(qū)別 MLP簡介 與普通感知機(jī)區(qū)別 加入了...