240 發(fā)簡信
IP屬地:北京
  • day9-圖像風(fēng)格遷移

    定義兩個間距,一個用于內(nèi)容楼肪,另一個用于風(fēng)格 測量兩張圖片內(nèi)容的不同,而用來測量兩張圖片風(fēng)格的不同。然后,我們輸入第三張圖片,并改變這張圖片真椿,使其...

  • day9-目標檢測

    邊界框(bounding box) 是最后定位目標的框,是結(jié)果 anchor box 目標檢測算法通常在輸入圖像中采樣大量區(qū)域乎澄,然后判斷這些區(qū)域...

  • day8-模型微調(diào)

    本是應(yīng)用于遷移學(xué)習(xí)的方法突硝,使用預(yù)訓(xùn)練的模型,但是輸出層自己定義 定義并加載模型 剩下就是讀取數(shù)據(jù)正常訓(xùn)練了 如果不凍結(jié)前面層的參數(shù)置济,建議前面層l...

  • day8-數(shù)據(jù)增強

    讀取圖像: 翻轉(zhuǎn)和裁剪 顏色變化: 亮度(brightness)解恰、對比度(contrast)、飽和度(saturation)和色調(diào)(hue)變化...

  • day7-梯度下降

    隨機梯度下降 每次使用一個樣本 批量梯度下降 每次使用全部樣本 小批量梯度下降 每次使用一個batch

  • day7-凸優(yōu)化

    矛盾 純粹的優(yōu)化方法是最小化訓(xùn)練集的損失函數(shù)而我們的目標是測試集損失函數(shù)的最小化浙于,也就是可以泛化而不是過擬合 需要避免的幾種情況: 局部最小值鞍...

  • Resize,w 360,h 240
    day7-批量歸一化和殘差網(wǎng)絡(luò)

    BN層: 全連接層的BN 位置:仿射變換和激活函數(shù)之間pytorch:nn.BatchNorm1d 卷積層的BN 位置:卷積計算和激活函數(shù)之間p...

  • Resize,w 360,h 240
    day5-Transformer

    和seq2seq模型相似护盈,Transformer同樣基于編碼器-解碼器架構(gòu),其區(qū)別主要在于以下三點: Transformer blocks:將s...

  • day5-attention機制和Seq2Seq

    內(nèi)容包括: attention機制 為什么需要attention 簡介 Seq2Seq attention 為什么需要attention 由于之...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品