240 發(fā)簡(jiǎn)信
IP屬地:北京
  • Mac上安裝Git并與Github或Gitlab進(jìn)行連接

    很多情況下曙旭,我們需要將Github上的代碼拉到本地诈唬,一般有兩種方法:第一種是直接點(diǎn)擊下載,另一種是利用git坛掠。git作為一個(gè)版本控制軟件圈澈,更是廣為使用咱揍。本文將簡(jiǎn)介在Mac上如...

  • 你好节预,我想請(qǐng)問(wèn)一下,這里的模型狈究,能夠自定義么碗淌?大多數(shù)的例子都是以VGG16作為模型,若是能應(yīng)用自定義模型抖锥,那里面的guided_model以及其他參數(shù)是否有什么變動(dòng)亿眠?

    Grad-CAM 卷積網(wǎng)絡(luò)中的熱力圖

    github地址論文地址使用Grad-CAM 對(duì)卷積網(wǎng)絡(luò)中的特征圖進(jìn)行加權(quán)求和,得到卷積conv5的熱力圖磅废,這種可視化機(jī)制必須有一個(gè)前置條件就是告訴算法具體的類別纳像,通過(guò)這個(gè)輸...

  • @沙華_2fb6 layer 是一個(gè)列表參數(shù),函數(shù)中l(wèi)ayer[0],layer[1]什么的都是指第1,2層中LSTM單元的個(gè)數(shù)

    深度學(xué)習(xí)之路(一):用LSTM網(wǎng)絡(luò)做時(shí)間序列數(shù)據(jù)預(yù)測(cè)

    簡(jiǎn)介 問(wèn)題:有一組1維數(shù)據(jù)拯勉,可能是某商品的銷(xiāo)售量竟趾,可能是股票的價(jià)格等耙考,用深度學(xué)習(xí)模型來(lái)解決對(duì)該數(shù)據(jù)的預(yù)測(cè)問(wèn)題,比如用前50個(gè)數(shù)據(jù)潭兽,來(lái)預(yù)測(cè)下一個(gè)數(shù)據(jù)。 數(shù)據(jù)的讀取及處理: 讀取...

  • 數(shù)據(jù)集我都忘記是哪里的一個(gè)1維數(shù)據(jù)的數(shù)據(jù)集了斗遏,至于模型的話山卦,按照文中的各個(gè)模塊寫(xiě)在一起就行了。

    深度學(xué)習(xí)之路(一):用LSTM網(wǎng)絡(luò)做時(shí)間序列數(shù)據(jù)預(yù)測(cè)

    簡(jiǎn)介 問(wèn)題:有一組1維數(shù)據(jù)诵次,可能是某商品的銷(xiāo)售量账蓉,可能是股票的價(jià)格等,用深度學(xué)習(xí)模型來(lái)解決對(duì)該數(shù)據(jù)的預(yù)測(cè)問(wèn)題逾一,比如用前50個(gè)數(shù)據(jù)铸本,來(lái)預(yù)測(cè)下一個(gè)數(shù)據(jù)。 數(shù)據(jù)的讀取及處理: 讀取...

  • 120
    深度學(xué)習(xí)之——優(yōu)化器

    一遵堵、什么是優(yōu)化器 優(yōu)化器或者優(yōu)化算法箱玷,是通過(guò)訓(xùn)練優(yōu)化參數(shù),來(lái)最小化(最大化)損失函數(shù)陌宿。損失函數(shù)是用來(lái)計(jì)算測(cè)試集中目標(biāo)值Y的真實(shí)值和預(yù)測(cè)值的偏差程度锡足。 為了使模型輸出逼近或達(dá)到...

  • 120
    分布式日志收集框架Flume

    Flume概述 Flume在大數(shù)據(jù)中扮演著數(shù)據(jù)收集的角色,收集到數(shù)據(jù)以后在通過(guò)計(jì)算框架進(jìn)行處理壳坪。Flume是Cloudera提供的一個(gè)高可用的舶得,高可靠的,分布式的海量日志采集...

  • 120
    Python+Selenium爽蝴,讓瀏覽器自動(dòng)幫你下文獻(xiàn)

    在做學(xué)術(shù)沐批、搞科研的過(guò)程中,我們往往需要針對(duì)一個(gè)特定的主題下載海量的文獻(xiàn)蝎亚。在把幾百篇文獻(xiàn)下載到電腦的過(guò)程中九孩,假如遇到不夠友好的數(shù)據(jù)庫(kù)不提供批量下載的功能,怎么辦颖对?我恰好遇到了這...

  • 120
    史上最全的cnn參數(shù)計(jì)算詳解

    廢話不多說(shuō), 直接上示例 1. 前戲 卷積前后大小變化示例 現(xiàn)實(shí)中的例子 featural金字塔 cnn內(nèi)部可視化 filter, activation map可視化 cnn...

  • 120
    推薦系統(tǒng)遇上深度學(xué)習(xí)(二十九)--協(xié)同記憶網(wǎng)絡(luò)理論及實(shí)踐

    協(xié)同過(guò)濾(collaborative filtering)是推薦系統(tǒng)中經(jīng)典的一類方法捻撑。協(xié)同過(guò)濾中比較經(jīng)典的解法有基于鄰域方法、矩陣分解等缤底,這些方法都有各自的優(yōu)點(diǎn)和缺點(diǎn)顾患,本文介...

  • 120
    推薦系統(tǒng)遇上深度學(xué)習(xí)(三十四)--YouTube深度學(xué)習(xí)推薦系統(tǒng)

    看題目,相信大家都知道本文要介紹的便是經(jīng)典的Youtube的深度學(xué)習(xí)推薦系統(tǒng)論文《Deep Neural Networks for YouTube Recommendatio...

  • 120
    一文讓你理解什么是卷積神經(jīng)網(wǎng)絡(luò)

    一文讓你理解什么是卷積神經(jīng)網(wǎng)絡(luò) 從神經(jīng)網(wǎng)絡(luò)到卷積神經(jīng)網(wǎng)絡(luò)(CNN) 我們知道神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是這樣的: 那卷積神經(jīng)網(wǎng)絡(luò)跟它是什么關(guān)系呢个唧?其實(shí)卷積神經(jīng)網(wǎng)絡(luò)依舊是層級(jí)網(wǎng)絡(luò)江解,只是層的...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品