240 發(fā)簡信
IP屬地:浙江
  • Resize,w 360,h 240
    高靈敏度氣體傳感用單原子催化劑的制備

    摘要: 近十年來休吠,單原子催化劑以其優(yōu)異的原子利用率和獨特的物理化學(xué)性質(zhì)在催化領(lǐng)域引起了廣泛的關(guān)注。對于基于半導(dǎo)體的電氣體傳感器來說,其核心是目標...

  • Resize,w 360,h 240
    經(jīng)典分類卷積網(wǎng)絡(luò)結(jié)構(gòu)扼睬、遷移學(xué)習(xí)

    LeNet-5解析 AlexNet 首次使用Relu函數(shù),droupout+BN 卷積網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化 減少計算量敢伸,對于Alex的優(yōu)化 Incep...

  • Resize,w 360,h 240
    卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    圖像數(shù)據(jù)和邊緣檢測 上圖錯字:達到瓶頸了 感受野 邊緣檢測 卷積神經(jīng)網(wǎng)絡(luò)(CNN)原理 卷積層 H:長辛萍,W:寬,F(xiàn):卷積核大小卖毁,P:零填充揖曾,S:...

  • Resize,w 360,h 240
    BN(批標準化)與網(wǎng)絡(luò)神經(jīng)調(diào)優(yōu)

    神經(jīng)網(wǎng)絡(luò)調(diào)優(yōu) 調(diào)參技巧 運行: 批標準化(BN) 批標準化公式 為什么批標準化能使優(yōu)化過程變簡單 internal covraiate shif...

  • Resize,w 360,h 240
    手寫數(shù)字識別案例設(shè)計

    主網(wǎng)絡(luò)搭建流程 準確率可以這么理解: 增加tensorflow的后臺顯示(可以在網(wǎng)頁看到變量的變化p39) 訓(xùn)練模型保存、模型存在加載模型進行預(yù)...

  • Resize,w 360,h 240
    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)

    序列模型 定義: 類型:語音識別亥啦、情感分類炭剪、機器翻譯 為什么序列模型使用CNN效果不好: 循環(huán)神經(jīng)網(wǎng)絡(luò) 定義: 類型: 基礎(chǔ)循環(huán)網(wǎng)絡(luò) 詞的表示 ...

    1.2 94 0 6
  • Resize,w 360,h 240
    深度學(xué)習(xí)正則化

    偏差與方差 數(shù)據(jù)集劃分 過擬合和欠擬合 解決方法: 高方差是過擬合,高偏差是欠擬合翔脱。 正則化 邏輯回歸的L1與L2正則化 正則化項理解 神經(jīng)網(wǎng)絡(luò)...

  • Resize,w 360,h 240
    梯度下降算法改進

    優(yōu)化的問題:梯度消失奴拦、局部最優(yōu) 梯度消失、梯度爆炸 局部最優(yōu): 梯度下降 梯度下降的優(yōu)化影響 大小選擇 指數(shù)加權(quán)平均(梯度下降算法本身的優(yōu)化) ...

  • Resize,w 360,h 240
    深層神經(jīng)網(wǎng)絡(luò)届吁、參數(shù)和超參數(shù)粱坤、深度學(xué)習(xí)進階

    四層網(wǎng)絡(luò)的前向傳播和反向傳播 前向傳播: 以上公式是由單個樣本來進行表示隶糕,每層經(jīng)過線性計算和激活函數(shù)兩步計算。 反向傳播: 參數(shù)和超參數(shù) 參數(shù)初...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品