240 發(fā)簡信
IP屬地:浙江
  • 120
    高靈敏度氣體傳感用單原子催化劑的制備

    摘要: 近十年來齿诞,單原子催化劑以其優(yōu)異的原子利用率和獨(dú)特的物理化學(xué)性質(zhì)在催化領(lǐng)域引起了廣泛的關(guān)注而账。對于基于半導(dǎo)體的電氣體傳感器來說渡紫,其核心是目標(biāo)氣體分子在敏感材料上的催化過程...

  • 120
    經(jīng)典分類卷積網(wǎng)絡(luò)結(jié)構(gòu)、遷移學(xué)習(xí)

    LeNet-5解析 AlexNet 首次使用Relu函數(shù)厌衔,droupout+BN 卷積網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化 減少計算量,對于Alex的優(yōu)化 Inception結(jié)構(gòu) 1*1卷積 In...

  • 120
    卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    圖像數(shù)據(jù)和邊緣檢測 上圖錯字:達(dá)到瓶頸了 感受野 邊緣檢測 卷積神經(jīng)網(wǎng)絡(luò)(CNN)原理 卷積層 H:長,W:寬薯鳍,F(xiàn):卷積核大小,P:零填充挨措,S:步長挖滤,K:filter卷積核數(shù)...

  • 120
    BN(批標(biāo)準(zhǔn)化)與網(wǎng)絡(luò)神經(jīng)調(diào)優(yōu)

    神經(jīng)網(wǎng)絡(luò)調(diào)優(yōu) 調(diào)參技巧 運(yùn)行: 批標(biāo)準(zhǔn)化(BN) 批標(biāo)準(zhǔn)化公式 為什么批標(biāo)準(zhǔn)化能使優(yōu)化過程變簡單 internal covraiate shift:內(nèi)部分布變換

  • 120
    手寫數(shù)字識別案例設(shè)計

    主網(wǎng)絡(luò)搭建流程 準(zhǔn)確率可以這么理解: 增加tensorflow的后臺顯示(可以在網(wǎng)頁看到變量的變化p39) 訓(xùn)練模型保存、模型存在加載模型進(jìn)行預(yù)測 創(chuàng)建saver: 調(diào)整學(xué)習(xí)...

  • 120
    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)

    序列模型 定義: 類型:語音識別浅役、情感分類斩松、機(jī)器翻譯 為什么序列模型使用CNN效果不好: 循環(huán)神經(jīng)網(wǎng)絡(luò) 定義: 類型: 基礎(chǔ)循環(huán)網(wǎng)絡(luò) 詞的表示 為了讓網(wǎng)絡(luò)理解我們的輸入,需要...

  • 120
    深度學(xué)習(xí)正則化

    偏差與方差 數(shù)據(jù)集劃分 過擬合和欠擬合 解決方法: 高方差是過擬合觉既,高偏差是欠擬合惧盹。 正則化 邏輯回歸的L1與L2正則化 正則化項理解 神經(jīng)網(wǎng)絡(luò)的正則化 正則化為什么能夠防止...

  • 120
    梯度下降算法改進(jìn)

    優(yōu)化的問題:梯度消失、局部最優(yōu) 梯度消失奋救、梯度爆炸 局部最優(yōu): 梯度下降 梯度下降的優(yōu)化影響 大小選擇 指數(shù)加權(quán)平均(梯度下降算法本身的優(yōu)化) 權(quán)重越大岭参,曲線越平滑,權(quán)重越小...

  • 120
    深層神經(jīng)網(wǎng)絡(luò)尝艘、參數(shù)和超參數(shù)演侯、深度學(xué)習(xí)進(jìn)階

    四層網(wǎng)絡(luò)的前向傳播和反向傳播 前向傳播: 以上公式是由單個樣本來進(jìn)行表示,每層經(jīng)過線性計算和激活函數(shù)兩步計算背亥。 反向傳播: 參數(shù)和超參數(shù) 參數(shù)初始化 深度學(xué)習(xí)進(jìn)階 softm...

  • 120
    淺層神經(jīng)網(wǎng)絡(luò)秒际、激活函數(shù)

    單個樣本的向量化表示 隱藏層:4個神經(jīng)元,輸出層:一個神經(jīng)元 激活函數(shù)的選擇 可選的函數(shù)有: 修改激活函數(shù)前的前向傳播和反向傳播

  • 120
    向量化編程狡汉、正反向傳播娄徊、一些練習(xí)

    for循環(huán)和numpy之間的速度對比 其余的numpy運(yùn)算: 邏輯回歸m個樣本的向量化編程 偽代碼為: 正向傳播和反向傳播 一些練習(xí)

  • 120
    機(jī)器學(xué)習(xí)、深度學(xué)習(xí)盾戴、邏輯回歸寄锐、梯度下降算法

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的區(qū)別 深度學(xué)習(xí)應(yīng)用場景 深度學(xué)習(xí)代表算法-神經(jīng)網(wǎng)絡(luò) 邏輯回歸 邏輯回歸的損失函數(shù) 目標(biāo)值為1也就是y=1,目標(biāo)值為0也就是y=0 梯度下降算法 導(dǎo)數(shù) 邏輯...

  • 120
    基礎(chǔ)

    1.創(chuàng)建虛擬環(huán)境 如圖: 2.進(jìn)入虛擬環(huán)境 如圖: 在vscode中找不到虛擬環(huán)境可以在anaconda中輸入where python 找到路徑尖啡,然后在輸入解釋器路徑粘貼橄仆。 ...

  • 藍(lán)本第三+四章習(xí)題

    第三章 程序設(shè)計T5 其中的pow(a,b)意為a的b次方衅斩,要加上math.h的庫盆顾。 第四章 p72例4-2(平均成績和不及格人數(shù)) 統(tǒng)計一批學(xué)生的平均成績與不及格人數(shù),從鍵...

  • 120
    鏈表

    定義: 鏈表由“結(jié)點(diǎn)”組成畏梆。結(jié)點(diǎn)由“數(shù)據(jù)部分”和“指針部分”組成您宪。 特點(diǎn): 首先由一個指針指向結(jié)點(diǎn) 鏈表的類型 1.有沒有頭結(jié)點(diǎn) 不帶頭結(jié)點(diǎn)的鏈表 頭結(jié)點(diǎn)沒有包含任何數(shù)據(jù)奈懒,除...

  • 120
    C語言設(shè)計樹狀圖

    總結(jié)構(gòu): 程序設(shè)計和C語言: 算法: 結(jié)構(gòu)化程序設(shè)計: 順序程序設(shè)計-數(shù)據(jù)的表現(xiàn)形式及其運(yùn)算: C語句: 數(shù)據(jù)的輸入輸出: 數(shù)組: 數(shù)組-字符函數(shù): 函數(shù): 雜: 指針: 指...

  • 120
    文件操作

    數(shù)據(jù)文件可以分為:文本文件和二進(jìn)制文件編譯器:將.c和.cpp的文件轉(zhuǎn)換成二進(jìn)制.obj(也就是外部文件夾中的源文件) 操作數(shù)據(jù)文件 文件打開方式: 這種情況說明是指向成功的...

  • 120
    指針(超重要的!)

    可以理解為指向地址宪巨!本質(zhì)就是地址磷杏,需要賦值的也是地址。 ps:我們定義了指針之后盡量要及時進(jìn)行賦值揖铜,以免出現(xiàn)野指針茴丰,導(dǎo)致程序出錯。如果暫時不知道賦值什么天吓,就可以先賦值為空(n...

  • 120
    自定義數(shù)據(jù)類型

    包括結(jié)構(gòu)體贿肩、共同體、枚舉類型 自定義數(shù)據(jù)類型龄寞,顧名思義汰规,就是用戶自己建立的數(shù)據(jù)類型。 結(jié)構(gòu)體(struct)(本節(jié)重點(diǎn)) 結(jié)構(gòu)體的基本語法: 例: 整體賦值就是第一個賦的值對...

  • 120
    預(yù)處理物邑、宏定義溜哮、文件包含、條件編譯

    預(yù)處理定義:是編譯之前做的事情 常用的預(yù)定義的符號 這個下劃線前后分別都有兩個色解! 宏定義 宏定義的本質(zhì)是替換茂嗓!一改全改!無參宏定義: 上圖中科阎,3.1415926的值就代表π述吸,...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品