通過學(xué)習(xí)李宏毅老師的課程煌茬,明白了為什么要學(xué)習(xí)機(jī)器學(xué)習(xí)迹缀,對(duì)機(jī)器學(xué)習(xí)有了一定的了解诗赌。重溫了回歸糜值、梯度下降等經(jīng)典方法和模型塞琼,學(xué)習(xí)了神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)赠叼,卷積...
卷積神經(jīng)網(wǎng)絡(luò) 是一種深度學(xué)習(xí)的方法扒袖,主要應(yīng)用于計(jì)算機(jī)視覺胰蝠,也可應(yīng)用在文本上歼培。 步驟 · 卷積· Relu· 池化· FC 卷積 設(shè)定若干個(gè)卷積核...
梯度下降 在訓(xùn)練過程中震蒋,經(jīng)常會(huì)遇到梯度為0的情況,可能并不是我們想要的結(jié)果躲庄,我們只想要得到梯度極小值查剖。根據(jù)泰勒展開來進(jìn)行判斷屬于哪一個(gè)類別。 數(shù)...
深度學(xué)習(xí) 采用深度神經(jīng)網(wǎng)絡(luò)作為模型進(jìn)行學(xué)習(xí)噪窘。 步驟 選擇神經(jīng)網(wǎng)絡(luò) 模型評(píng)估 選擇最好結(jié)果 反向傳播 通過鏈?zhǔn)椒▌t笋庄,進(jìn)行梯度下降。
誤差分解 誤差來源于兩個(gè)部分效览,一個(gè)是偏差无切,一個(gè)是方差。 梯度下降 我們需要找到一個(gè)損失函數(shù)丐枉,來最優(yōu)化這個(gè)損失函數(shù)哆键。 學(xué)習(xí)率 學(xué)習(xí)率可以控制梯度下...
問題原因 Mac 安裝了 conda 后, 終端的命令行前面會(huì)有一個(gè)(base), 具體顯示如下: (base) 主機(jī)名稱:~ 用戶名$ 具體原...
回歸 Regression就是找到一個(gè)函數(shù),通過輸入特征x瘦锹,輸出預(yù)測(cè)結(jié)果籍嘹,結(jié)果是一個(gè)數(shù)值。 建立模型 根據(jù)特征建立一個(gè)模型弯院。 模型評(píng)估 使用損失...
人工智能(AI) 讓機(jī)器具有類似人類一樣學(xué)習(xí)的能力辱士,機(jī)器學(xué)習(xí)是實(shí)現(xiàn)人工智能的手段。 機(jī)器也和生物類似听绳,行為取決于先天的本能和后天的學(xué)習(xí)颂碘。先天的本...
區(qū)別:char *s1:s1是一個(gè)指向字符串的指針char s2[]:s2是一個(gè)字符數(shù)組string s3:s3是一個(gè)string類的對(duì)象【內(nèi)存...