先放上題目:
下面是我的學(xué)習(xí)和分析(因Coursera榮譽(yù)準(zhǔn)則要求右蹦,避免與他人分享答案,這里我只放出我學(xué)習(xí)過(guò)程中疑惑或者學(xué)習(xí)到的地方捉腥。):
1.what does neuron compute?神經(jīng)元計(jì)算做了什么氓拼?
視頻中講述,一個(gè)神經(jīng)元是計(jì)算是計(jì)算一個(gè)線性函數(shù),然后緊跟著一個(gè)激活函數(shù)(sigmoid or Relu)
2.Logistic Loss --Loss Function 衡量單個(gè)樣本集的實(shí)驗(yàn)效果
Logistic Cost --Cost Function 在全體樣本集上看w,b的效果
3.····reshape this into a colunmn vector?如何重構(gòu)成一個(gè)列向量桃漾?列向量顯然是(m坏匪,1)矩陣
一張像素為64*64的圖片,用紅撬统、綠适滓、藍(lán)三色矩陣來(lái)表示一張圖片,這三個(gè)都是(64,64)矩陣
4.(2,3)矩陣+(2,1)矩陣恋追,在計(jì)算前會(huì)將(2,1)矩陣的列復(fù)制為三列凭迹,然后再相加,得到一個(gè)(2,3)矩陣
5.(4,3)矩陣 (3,2)矩陣==》Error! the sizes don't match!
""是元素的乘法運(yùn)算苦囱,運(yùn)用于數(shù)組中嗅绸,是數(shù)組元素逐個(gè)計(jì)算,當(dāng)行數(shù)相等列數(shù)為1(或者列數(shù)相等行數(shù)為1時(shí))會(huì)引起矩陣的廣播撕彤。而(4,3)*(3,2)不會(huì)引起矩陣的廣播鱼鸠。
np.dot(a,b):兩個(gè)數(shù)組的點(diǎn)積,運(yùn)用于數(shù)組中羹铅,是按照矩陣乘法的規(guī)則matrix multiplication(第一個(gè)矩陣第m行與第二個(gè)矩陣第n列對(duì)應(yīng)位置的每個(gè)值的乘積之和蚀狰,作為結(jié)果矩陣第m行與第n列交叉位置的值)來(lái)運(yùn)算。矩陣的乘法規(guī)則要求A的列數(shù)等于B的行數(shù)职员。
Nx列造锅,m行
np.dot((12288,150),(150,45))
--(12288,150)矩陣和(150,45)矩陣做矩陣的乘法運(yùn)算,得到(12288,45)vectorize this 對(duì)其矢量化
for i in range(3):
for j in range(4):
c[i][j] = a[i][j] + b[j]
如題廉邑,想用矩陣的運(yùn)算來(lái)代替題目中的for循環(huán)哥蔚,注意到a是(3,4)矩陣,b是(4,1)矩陣蛛蒙,且根據(jù)題中的for循環(huán)得到糙箍,c是(3,4)矩陣。
顯然牵祟,通過(guò)(3,4)+(1,4)并且運(yùn)用廣播的規(guī)則深夯,可以得到(3,4)目標(biāo)矩陣。“”:元素相乘诺苹,如題矩陣(3,3)(3,1)會(huì)引起矩陣的廣播咕晋,得到結(jié)果為(3,3)的矩陣。
矩陣的乘法(np.dot(A,B)):需要A的列數(shù)等于B的行數(shù)收奔。簡(jiǎn)單計(jì)算