![240](https://upload.jianshu.io/users/upload_avatars/14491816/e4a84a87-2a4e-4ac4-bccc-f57e295164a8.jpg?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
摘要: 近十年來休吠,單原子催化劑以其優(yōu)異的原子利用率和獨特的物理化學(xué)性質(zhì)在催化領(lǐng)域引起了廣泛的關(guān)注。對于基于半導(dǎo)體的電氣體傳感器來說,其核心是目標...
LeNet-5解析 AlexNet 首次使用Relu函數(shù),droupout+BN 卷積網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化 減少計算量敢伸,對于Alex的優(yōu)化 Incep...
圖像數(shù)據(jù)和邊緣檢測 上圖錯字:達到瓶頸了 感受野 邊緣檢測 卷積神經(jīng)網(wǎng)絡(luò)(CNN)原理 卷積層 H:長辛萍,W:寬,F(xiàn):卷積核大小卖毁,P:零填充揖曾,S:...
神經(jīng)網(wǎng)絡(luò)調(diào)優(yōu) 調(diào)參技巧 運行: 批標準化(BN) 批標準化公式 為什么批標準化能使優(yōu)化過程變簡單 internal covraiate shif...
主網(wǎng)絡(luò)搭建流程 準確率可以這么理解: 增加tensorflow的后臺顯示(可以在網(wǎng)頁看到變量的變化p39) 訓(xùn)練模型保存、模型存在加載模型進行預(yù)...
序列模型 定義: 類型:語音識別亥啦、情感分類炭剪、機器翻譯 為什么序列模型使用CNN效果不好: 循環(huán)神經(jīng)網(wǎng)絡(luò) 定義: 類型: 基礎(chǔ)循環(huán)網(wǎng)絡(luò) 詞的表示 ...
偏差與方差 數(shù)據(jù)集劃分 過擬合和欠擬合 解決方法: 高方差是過擬合,高偏差是欠擬合翔脱。 正則化 邏輯回歸的L1與L2正則化 正則化項理解 神經(jīng)網(wǎng)絡(luò)...
優(yōu)化的問題:梯度消失奴拦、局部最優(yōu) 梯度消失、梯度爆炸 局部最優(yōu): 梯度下降 梯度下降的優(yōu)化影響 大小選擇 指數(shù)加權(quán)平均(梯度下降算法本身的優(yōu)化) ...
四層網(wǎng)絡(luò)的前向傳播和反向傳播 前向傳播: 以上公式是由單個樣本來進行表示隶糕,每層經(jīng)過線性計算和激活函數(shù)兩步計算。 反向傳播: 參數(shù)和超參數(shù) 參數(shù)初...