![240](https://cdn2.jianshu.io/assets/default_avatar/14-0651acff782e7a18653d7530d6b27661.jpg?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
定義兩個間距,一個用于內(nèi)容楼肪,另一個用于風(fēng)格 測量兩張圖片內(nèi)容的不同,而用來測量兩張圖片風(fēng)格的不同。然后,我們輸入第三張圖片,并改變這張圖片真椿,使其...
邊界框(bounding box) 是最后定位目標的框,是結(jié)果 anchor box 目標檢測算法通常在輸入圖像中采樣大量區(qū)域乎澄,然后判斷這些區(qū)域...
本是應(yīng)用于遷移學(xué)習(xí)的方法突硝,使用預(yù)訓(xùn)練的模型,但是輸出層自己定義 定義并加載模型 剩下就是讀取數(shù)據(jù)正常訓(xùn)練了 如果不凍結(jié)前面層的參數(shù)置济,建議前面層l...
讀取圖像: 翻轉(zhuǎn)和裁剪 顏色變化: 亮度(brightness)解恰、對比度(contrast)、飽和度(saturation)和色調(diào)(hue)變化...
隨機梯度下降 每次使用一個樣本 批量梯度下降 每次使用全部樣本 小批量梯度下降 每次使用一個batch
矛盾 純粹的優(yōu)化方法是最小化訓(xùn)練集的損失函數(shù)而我們的目標是測試集損失函數(shù)的最小化浙于,也就是可以泛化而不是過擬合 需要避免的幾種情況: 局部最小值鞍...
BN層: 全連接層的BN 位置:仿射變換和激活函數(shù)之間pytorch:nn.BatchNorm1d 卷積層的BN 位置:卷積計算和激活函數(shù)之間p...
和seq2seq模型相似护盈,Transformer同樣基于編碼器-解碼器架構(gòu),其區(qū)別主要在于以下三點: Transformer blocks:將s...
內(nèi)容包括: attention機制 為什么需要attention 簡介 Seq2Seq attention 為什么需要attention 由于之...