概念
深度學(xué)習是一種機器學(xué)習拷获,機器學(xué)習是一種人工智能。
機器學(xué)習是一種從“數(shù)據(jù)”中找出“模型”的技術(shù)减细。數(shù)據(jù)可以是文檔匆瓜,音頻,圖像等未蝌。機器學(xué)習的最終產(chǎn)物是模型驮吱。
機器學(xué)習的基本思想實在方程和定律都不可行的情況下,使用訓(xùn)練數(shù)據(jù)建立模型萧吠。
泛化(Generalization): 機器學(xué)習算法對新鮮樣本的適應(yīng)能力左冬。
過擬合(Overfitting):創(chuàng)建的模型與訓(xùn)練數(shù)據(jù)過于匹配,對新數(shù)據(jù)產(chǎn)生低性能纸型,模型被稱為過擬合拇砰。
克服過擬合的方法:Regularization和validation。
機器學(xué)習分為: 監(jiān)督學(xué)習狰腌,無監(jiān)督學(xué)習除破,強化學(xué)習。
監(jiān)督學(xué)習常見的兩種類型是分類和回歸琼腔。
無監(jiān)督學(xué)習的典型應(yīng)用是聚類瑰枫。
神經(jīng)網(wǎng)絡(luò)
機器學(xué)習可以由多種形式實現(xiàn),神將網(wǎng)絡(luò)就是其中之一展姐。
神經(jīng)網(wǎng)絡(luò)模仿大腦的機制躁垛,由節(jié)點連接構(gòu)成,使用權(quán)重來模擬神經(jīng)元的聯(lián)系圾笨。神經(jīng)網(wǎng)絡(luò)的信息以權(quán)重和偏差的形式存儲教馆。
神經(jīng)網(wǎng)絡(luò)分類:
單層神經(jīng)網(wǎng)絡(luò)只能解決線性可分的問題。
根據(jù)給定信息修改權(quán)重的系統(tǒng)方法稱為學(xué)習規(guī)則擂达。Delta規(guī)則是神經(jīng)網(wǎng)絡(luò)的典型學(xué)習規(guī)則土铺。常用的三種更新權(quán)重的方案
-Stochastic Gradient Descent
-Batch
-MiniBath
Back-propagation算法用來實現(xiàn)多層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練問題。
深度學(xué)習框架
早期板鬓,具有C++和CUDA等專業(yè)知識的人才能實現(xiàn)DL算法悲敷,但隨著許多組織的深度學(xué)習框架開源,實現(xiàn)DL算法變得很容易俭令。目前業(yè)內(nèi)使用的一些流行的深度學(xué)習框架有TensorFlow后德、Caffe2、Keras抄腔、Theano瓢湃、PyTorch理张、Chainer、Dynet绵患、MXnet和CNTK等雾叭。
深度學(xué)習訓(xùn)練步驟
- 構(gòu)建數(shù)據(jù)集
- 構(gòu)建神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
- 使用損失函數(shù)評估模型的準確性
- 使用優(yōu)化算法來修改權(quán)重。