240 發(fā)簡(jiǎn)信
IP屬地:北京
  • day9-圖像風(fēng)格遷移

    定義兩個(gè)間距擂红,一個(gè)用于內(nèi)容借笙,另一個(gè)用于風(fēng)格 測(cè)量?jī)蓮垐D片內(nèi)容的不同郭变,而用來(lái)測(cè)量?jī)蓮垐D片風(fēng)格的不同矮湘。然后答恶,我們輸入第三張圖片小作,并改變這張圖片具则,使其...

  • day9-目標(biāo)檢測(cè)

    邊界框(bounding box) 是最后定位目標(biāo)的框砾淌,是結(jié)果 anchor box 目標(biāo)檢測(cè)算法通常在輸入圖像中采樣大量區(qū)域啦撮,然后判斷這些區(qū)域...

  • day8-模型微調(diào)

    本是應(yīng)用于遷移學(xué)習(xí)的方法,使用預(yù)訓(xùn)練的模型汪厨,但是輸出層自己定義 定義并加載模型 剩下就是讀取數(shù)據(jù)正常訓(xùn)練了 如果不凍結(jié)前面層的參數(shù)赃春,建議前面層l...

  • day8-數(shù)據(jù)增強(qiáng)

    讀取圖像: 翻轉(zhuǎn)和裁剪 顏色變化: 亮度(brightness)、對(duì)比度(contrast)劫乱、飽和度(saturation)和色調(diào)(hue)變化...

  • day7-梯度下降

    隨機(jī)梯度下降 每次使用一個(gè)樣本 批量梯度下降 每次使用全部樣本 小批量梯度下降 每次使用一個(gè)batch

  • day7-凸優(yōu)化

    矛盾 純粹的優(yōu)化方法是最小化訓(xùn)練集的損失函數(shù)而我們的目標(biāo)是測(cè)試集損失函數(shù)的最小化织中,也就是可以泛化而不是過(guò)擬合 需要避免的幾種情況: 局部最小值鞍...

  • Resize,w 360,h 240
    day7-批量歸一化和殘差網(wǎng)絡(luò)

    BN層: 全連接層的BN 位置:仿射變換和激活函數(shù)之間pytorch:nn.BatchNorm1d 卷積層的BN 位置:卷積計(jì)算和激活函數(shù)之間p...

  • Resize,w 360,h 240
    day5-Transformer

    和seq2seq模型相似,Transformer同樣基于編碼器-解碼器架構(gòu)衷戈,其區(qū)別主要在于以下三點(diǎn): Transformer blocks:將s...

  • day5-attention機(jī)制和Seq2Seq

    內(nèi)容包括: attention機(jī)制 為什么需要attention 簡(jiǎn)介 Seq2Seq attention 為什么需要attention 由于之...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品