
定義兩個(gè)間距擂红,一個(gè)用于內(nèi)容借笙,另一個(gè)用于風(fēng)格 測(cè)量?jī)蓮垐D片內(nèi)容的不同郭变,而用來(lái)測(cè)量?jī)蓮垐D片風(fēng)格的不同矮湘。然后答恶,我們輸入第三張圖片小作,并改變這張圖片具则,使其...
邊界框(bounding box) 是最后定位目標(biāo)的框砾淌,是結(jié)果 anchor box 目標(biāo)檢測(cè)算法通常在輸入圖像中采樣大量區(qū)域啦撮,然后判斷這些區(qū)域...
本是應(yīng)用于遷移學(xué)習(xí)的方法,使用預(yù)訓(xùn)練的模型汪厨,但是輸出層自己定義 定義并加載模型 剩下就是讀取數(shù)據(jù)正常訓(xùn)練了 如果不凍結(jié)前面層的參數(shù)赃春,建議前面層l...
讀取圖像: 翻轉(zhuǎn)和裁剪 顏色變化: 亮度(brightness)、對(duì)比度(contrast)劫乱、飽和度(saturation)和色調(diào)(hue)變化...
隨機(jī)梯度下降 每次使用一個(gè)樣本 批量梯度下降 每次使用全部樣本 小批量梯度下降 每次使用一個(gè)batch
矛盾 純粹的優(yōu)化方法是最小化訓(xùn)練集的損失函數(shù)而我們的目標(biāo)是測(cè)試集損失函數(shù)的最小化织中,也就是可以泛化而不是過(guò)擬合 需要避免的幾種情況: 局部最小值鞍...
BN層: 全連接層的BN 位置:仿射變換和激活函數(shù)之間pytorch:nn.BatchNorm1d 卷積層的BN 位置:卷積計(jì)算和激活函數(shù)之間p...
和seq2seq模型相似,Transformer同樣基于編碼器-解碼器架構(gòu)衷戈,其區(qū)別主要在于以下三點(diǎn): Transformer blocks:將s...
內(nèi)容包括: attention機(jī)制 為什么需要attention 簡(jiǎn)介 Seq2Seq attention 為什么需要attention 由于之...