吳恩達(dá)深度學(xué)習(xí)-神經(jīng)網(wǎng)絡(luò)基礎(chǔ)(神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí))

2.1二分類
這里的二分類就是給定輸入向量X,經(jīng)過(guò)模型對(duì)應(yīng)輸出1或者0蜗字。這里二分類模型用的是logistic模型打肝。

2.2logistic回歸
在邏輯回歸中脂新,我們的輸出用sigmoid函數(shù)來(lái)表示,要么0要么1粗梭。
參見(jiàn)李航-第6章邏輯斯蒂回歸與最大熵模型

2.3logistic回歸損失函數(shù)
通過(guò)損失函數(shù)最小化争便,來(lái)找對(duì)應(yīng)的w和b,即確定模型断医。


邏輯回歸損失函數(shù).png

損失函數(shù)又叫做誤差函數(shù)滞乙,用來(lái)衡量算法的運(yùn)行情況。我們通過(guò)這個(gè)L稱為的損失函數(shù)鉴嗤,來(lái)衡量預(yù)測(cè)輸出值和實(shí)際值有多接近斩启。

2.4梯度下降法
是用過(guò)梯度下降的方法來(lái)訓(xùn)練w和b,而梯度下降指的其實(shí)就是求偏導(dǎo)數(shù)躬窜。

梯度下降法.png

2.5導(dǎo)數(shù)
2.6更多導(dǎo)數(shù)的例子

導(dǎo)數(shù)就是斜率浇垦。這里講的導(dǎo)數(shù)都是比較簡(jiǎn)單的,大學(xué)學(xué)過(guò)高數(shù)的應(yīng)該都沒(méi)有問(wèn)題荣挨。另外B站有個(gè)比較好微積分的教程男韧,
參見(jiàn)微積分的本質(zhì)

2.7計(jì)算圖
2.8計(jì)算圖的導(dǎo)數(shù)計(jì)算

2.9logistic回歸中的梯度下降法
2.10 M個(gè)樣本的梯度下降


logistic中的梯度下降.png

m個(gè)樣本的梯度下降計(jì)算的代碼流程

J=0;dw1=0;dw2=0;db=0;
for i = 1 to m
    z(i) = wx(i)+b;
    a(i) = sigmoid(z(i));
    J += -[y(i)log(a(i))+(1-y(i))log(1-a(i));
    dz(i) = a(i)-y(i);
    dw1 += x1(i)dz(i);
    dw2 += x2(i)dz(i);
    db += dz(i);
J/= m;
dw1/= m;
dw2/= m;
db/= m;
w=w-alpha*dw
b=b-alpha*db

下面的一些講的主要是一些Python編程中的內(nèi)容,如果自己有過(guò)了解的話默垄,都是十分基礎(chǔ)的東西此虑。

2.11 向量化
2.12 向量化的更多例子

記住盡量避免for循環(huán),因?yàn)閒or循環(huán)真的是太慢了口锭。向量化具有更高的效率朦前。

import numpy as np #導(dǎo)入numpy庫(kù)
a = np.array([1,2,3,4]) #創(chuàng)建一個(gè)數(shù)據(jù)a
print(a)

[1 2 3 4]
 # 向量化來(lái)計(jì)算運(yùn)算和用for循環(huán)的對(duì)比如下:
import time #導(dǎo)入時(shí)間庫(kù)
a = np.random.rand(1000000)
b = np.random.rand(1000000) #通過(guò)round隨機(jī)得到兩個(gè)一百萬(wàn)維度的數(shù)組
tic = time.time() #現(xiàn)在測(cè)量一下當(dāng)前時(shí)間
#向量化的版本
c = np.dot(a,b)
toc = time.time()
print(c)
print("Vectorized version:" + str(1000*(toc-tic)) +"ms")

c = 0
tic = time.time()
for i in range(1000000):
    c += a[i]*b[i]
toc = time.time()
print(c)
print("For loop:"+ str(1000*(toc-tic)) + "ms")

250078.7175546896
Vectorized version:1.8308162689208984ms
250078.71755468933
For loop:444.06890869140625ms


2.13 向量化logistic回歸
2.14向量化logistic回歸的梯度輸出
2.15 Python中的廣播

# Python中的廣播
import numpy as np
A = np.array([[56.0,0.0,4.4,68.0],
             [1.2,104.0,52.0,8.0],
             [1.8,135.0,99.0,0.9]])
A
array([[ 56. ,   0. ,   4.4,  68. ],
       [  1.2, 104. ,  52. ,   8. ],
       [  1.8, 135. ,  99. ,   0.9]])

cal = A.sum(axis = 0)
cal
array([ 59. , 239. , 155.4,  76.9])

percentage = 100*A / cal.reshape(1,4)
percentage

array([[94.91525424,  0.        ,  2.83140283, 88.42652796],
       [ 2.03389831, 43.51464435, 33.46203346, 10.40312094],
       [ 3.05084746, 56.48535565, 63.70656371,  1.17035111]])

2.16 關(guān)于Python/numpy 向量的說(shuō)明
217 Jupyter / Ipython 筆記的快速指南
2.18 (選修)logistic損失函數(shù)的解釋

一、學(xué)習(xí)安排(11月1日-11月3日)
1.主要學(xué)習(xí)視頻:第二課:神經(jīng)網(wǎng)絡(luò)基礎(chǔ)(神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí))
鏈接(https://mooc.study.163.com/smartSpec/detail/1001319001.htm?from=study
2.參考書資料:
a.Various Deep Learning Topics
b.Week 2 slides
c.C1M1 slides
c.C1M2 slides(http://cs230.stanford.edu/syllabus.html)
二鹃操、作業(yè)上傳事項(xiàng)
1.作業(yè)內(nèi)容:
主要是總結(jié)所學(xué)習(xí)的視頻和講義內(nèi)容
(提交形式韭寸,是以“匯報(bào)”形式匯報(bào)給助教(李凱旋),對(duì)于作業(yè)敷衍的直接視為下車)
2.作業(yè)提交日期
作業(yè)規(guī)定在11月3日24點(diǎn)之前荆隘,大家把握好時(shí)間恩伺,且11月4日晚上,助教會(huì)公布沒(méi)有交作業(yè)者并令其下車椰拒;
@所有人

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末晶渠,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子燃观,更是在濱河造成了極大的恐慌褒脯,老刑警劉巖,帶你破解...
    沈念sama閱讀 217,907評(píng)論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件缆毁,死亡現(xiàn)場(chǎng)離奇詭異番川,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,987評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門爽彤,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)养盗,“玉大人,你說(shuō)我怎么就攤上這事适篙⊥耍” “怎么了?”我有些...
    開封第一講書人閱讀 164,298評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵嚷节,是天一觀的道長(zhǎng)聂儒。 經(jīng)常有香客問(wèn)我,道長(zhǎng)硫痰,這世上最難降的妖魔是什么衩婚? 我笑而不...
    開封第一講書人閱讀 58,586評(píng)論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮效斑,結(jié)果婚禮上非春,老公的妹妹穿的比我還像新娘。我一直安慰自己缓屠,他們只是感情好奇昙,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,633評(píng)論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著敌完,像睡著了一般储耐。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上滨溉,一...
    開封第一講書人閱讀 51,488評(píng)論 1 302
  • 那天什湘,我揣著相機(jī)與錄音,去河邊找鬼晦攒。 笑死闽撤,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的脯颜。 我是一名探鬼主播腹尖,決...
    沈念sama閱讀 40,275評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼伐脖!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起乐设,我...
    開封第一講書人閱讀 39,176評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤讼庇,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后近尚,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體蠕啄,經(jīng)...
    沈念sama閱讀 45,619評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,819評(píng)論 3 336
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了歼跟。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片和媳。...
    茶點(diǎn)故事閱讀 39,932評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖哈街,靈堂內(nèi)的尸體忽然破棺而出留瞳,到底是詐尸還是另有隱情,我是刑警寧澤骚秦,帶...
    沈念sama閱讀 35,655評(píng)論 5 346
  • 正文 年R本政府宣布她倘,位于F島的核電站,受9級(jí)特大地震影響作箍,放射性物質(zhì)發(fā)生泄漏硬梁。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,265評(píng)論 3 329
  • 文/蒙蒙 一胞得、第九天 我趴在偏房一處隱蔽的房頂上張望荧止。 院中可真熱鬧,春花似錦阶剑、人聲如沸跃巡。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,871評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)瓷炮。三九已至,卻和暖如春递宅,著一層夾襖步出監(jiān)牢的瞬間娘香,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,994評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工办龄, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留烘绽,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,095評(píng)論 3 370
  • 正文 我出身青樓俐填,卻偏偏與公主長(zhǎng)得像安接,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子英融,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,884評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容