每天五分鐘帶你解決一個(gè)深度學(xué)習(xí)問題象颖。
向量的數(shù)學(xué)運(yùn)算
在很多文獻(xiàn)中你看到的向量會(huì)這么表示: ,代表向量a瘫想。
關(guān)于向量最重要的就是你要知道它的起點(diǎn)和終點(diǎn)悄晃,如果沒有說明起點(diǎn),我們把原點(diǎn) 認(rèn)為是默認(rèn)起點(diǎn)鸽斟。所以你看到的向量:
代表的就是以為(0,0)為起點(diǎn)以(2,5)為終點(diǎn)的向量。
代表的就是以為(0,0)為起點(diǎn)以(3,2)為終點(diǎn)的向量利诺。
這代表了一個(gè)向量的方向富蓄。
另外你要知道向量是有距離的也就是我們常數(shù)的模長(zhǎng)。數(shù)學(xué)符號(hào)為||或者 |a|慢逾。
向量(3,4)立倍,就代表以(0,0)為起點(diǎn),以(3,4)為終點(diǎn)的線段侣滩。模長(zhǎng)為5 ()
向量的運(yùn)算我們重點(diǎn)回顧加減法與內(nèi)積
向量的加減
重點(diǎn)要掌握向量加減的物理意義:
加法口注,兩相加之后的結(jié)果會(huì)與原向量角度變近
減法,兩相加之后的結(jié)果會(huì)與原向量角度變遠(yuǎn)
加法的平行四邊形法則 u + v :
所以向量u+v 可以這么理解寝志,就是一個(gè)人從起點(diǎn)(0,0)沿著u方向行走了若干距離(u的模長(zhǎng))以后又沿著平移后的v方向走了若干距離(v的模長(zhǎng))最后到達(dá)的終點(diǎn)與(0,0)構(gòu)成了一個(gè)新的向量。
并且u+v這個(gè)向量葛躏,和原來的向量v的角度變近了澈段,原來u和v之間的角度目測(cè)是90度!
減法的平行四邊形法則 u - v
所以你看舰攒,其實(shí)u-v 不就是u+(-v)嗎败富?
所以向量u - v 可以這么理解,就是一個(gè)人從起點(diǎn)(0,0)沿著u方向行走了若干距離(u的模長(zhǎng))以后又沿著平移后的-v方向走了若干距離(v的模長(zhǎng))最后到達(dá)的終點(diǎn)與(0,0)構(gòu)成了一個(gè)新的向量摩窃。
并且u-v這個(gè)向量兽叮,和原來的向量v的角度變遠(yuǎn)了,原來u和v之間的角度目測(cè)是90度猾愿!
向量的縮放
向量的縮放就直接上圖了鹦聪,向量 與數(shù)字進(jìn)行乘法運(yùn)算2 * =
向量與一個(gè)標(biāo)量做乘法運(yùn)算的物理意義就是向量本身方向不變,模長(zhǎng)做縮放變化蒂秘。
這里不要急著去敲代碼泽本,把上面的物理意義記住R錾9胬觥F涯痢!赌莺!
使用numpy來進(jìn)行運(yùn)算冰抢,你可以使用其它運(yùn)算工具來進(jìn)行運(yùn)算。
import numpy as np
v1 = np.array([1,0])
v2 = np.array([0,1])
v1 + v2
輸出
array([1, 1])
v3 = np.array([1,1])
v3 - v1
輸出
array([0, 1])
v4 = np.array([3, 0])
2 * v4
輸出
array([6, 0])
各位可以嘗試把這個(gè)過程畫到紙上艘狭,再感受一下向量加減的物理感覺挎扰。
目錄:
人工智能必知必會(huì)-前言
人工智能必知必會(huì)-標(biāo)量,向量巢音,矩陣遵倦,張量
人工智能必知必會(huì)-向量的加減與縮放
人工智能必知必會(huì)-向量的內(nèi)積
人工智能必知必會(huì)-向量之間的距離
人工智能必知必會(huì)-初識(shí)矩陣
人工智能必知必會(huì)-矩陣與向量
人工智能必知必會(huì)-矩陣的加減法
人工智能必知必會(huì)-矩陣乘法
人工智能必知必會(huì)-矩陣與方程組
人工智能必知必會(huì)-再看矩陣與向量
人工智能必知必會(huì)-矩陣與向量乘法的物理意義
人工智能必知必會(huì)-詞向量(案例)
人工智能必知必會(huì)-矩陣相乘上
人工智能必知必會(huì)-矩陣相乘下