Hello?World感知機(jī),懂你我心才安息

單層神經(jīng)網(wǎng)絡(luò)

把一個(gè)多元一次方程(需要擬合的目標(biāo)方程)畫為神經(jīng)網(wǎng)絡(luò)

神經(jīng)元:1荆隘、x1椰拒、x2每個(gè)圈為一個(gè)神經(jīng)元

輸入層:1凰荚、x1、x2整體為輸入層,神經(jīng)網(wǎng)絡(luò)中輸入層永遠(yuǎn)只有一層憨颠,且每個(gè)神經(jīng)元只能有一個(gè)特征

輸出層:在線性回歸中輸出層起著加和的作用

正向傳播:輸入層上每個(gè)神經(jīng)元的特征與對應(yīng)連線上的權(quán)重相乘爽彤,最后由輸出層匯總結(jié)果

手動實(shí)現(xiàn)正向傳播

importtorch

X=torch.tensor([[1,0,0],[1,1,0],[1,0,1],[1,1,1]],dtype=torch.float32)

#tensor([[1.,0.,0.],

#[1.,1.,0.],

#[1.,0.,1.],

#[1.,1.,1.]])

w=torch.tensor([-0.2,0.15,0.15],dtype=torch.float32)

#tensor([-0.2000,0.1500,0.1500])

輸出層的結(jié)果為

zhat=torch.mv(X,w)

#tensor([-0.2000,-0.0500,-0.0500,0.1000])

torch.nn.Linear實(shí)現(xiàn)正向傳播

importtorch

X=torch.tensor([[0,0],[1,0],[0,1],[1,1]],dtype=torch.float32)

#tensor([[0.,0.],

#[1.,0.],

#[0.,1.],

#[1.,1.]])

torch.random.manual_seed(0)

output=torch.nn.Linear(2,1)

zhat=output(X)

對torch.nn.Linear類實(shí)例化,需要輸入兩個(gè)參數(shù)往核,上一層的神經(jīng)元個(gè)數(shù)嚷节,這一層的神經(jīng)元個(gè)數(shù)。因?yàn)檩斎雽犹卣骶仃嘪只有兩個(gè)特征衩婚,所以上一層的神經(jīng)元個(gè)數(shù)=2效斑,這一層是輸出層只有一個(gè)神經(jīng)元所以這一層的神經(jīng)元個(gè)數(shù)=1

在實(shí)例化中,會自動生成神經(jīng)連接上的權(quán)重w和截距b缓屠,但因?yàn)槭请S機(jī)生成的需要設(shè)置隨機(jī)數(shù),確保每次運(yùn)行都生成相同的權(quán)重w和截距b储耐。

但是因?yàn)閣和b是隨機(jī)生成的所以輸出層的結(jié)果zhat和手動算的不一樣蠢挡,這只是為了演示正向傳播過程。神經(jīng)網(wǎng)絡(luò)需要通過多次

感知機(jī)處理2分類問題

上邊的神經(jīng)網(wǎng)絡(luò)只能處理回歸問題禽炬,而不能給出具體的分類腹尖,因此需要在輸出層增加一個(gè)離散函數(shù),根據(jù)數(shù)值大小把zhat分為不同的分類热幔。

感知機(jī)是單層神經(jīng)網(wǎng)絡(luò)绎巨,輸出層使用sign(階躍函數(shù)、符號函數(shù))對zhat處理场勤,從而得到2分類輸出結(jié)果

與門問題

與門問題和媳,即X的第二列和第三列取邏輯and得到的結(jié)果0,0拒迅,0她倘,1,需要用感知機(jī)預(yù)測這個(gè)2分類問題

importtorch

X=torch.tensor([[1,0,0],[1,1,0],[1,0,1],[1,1,1]],dtype=torch.float32)

#tensor([[1.,0.,0.],

#[1.,1.,0.],

#[1.,0.,1.],

#[1.,1.,1.]])

w=torch.tensor([-0.2,0.15,0.15],dtype=torch.float32)

輸出層的結(jié)果為往毡,因?yàn)楦兄獧C(jī)使用的是sign函數(shù)靶溜,返回的結(jié)果是-1和1代表了兩個(gè)分類罩息,那么這里的-1就是0即False而1代表1即True

zhat=torch.mv(X,w)

#tensor([-0.2000,-0.0500,-0.0500,0.1000])

output=torch.sign(zhat)

#tensor([-1.,-1.,-1.,1.])

那么權(quán)重w是怎么得到的呢,可以使用梯度下降方法通過迭代找到損失函數(shù)最小值葱色,從而得到w

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末娘香,一起剝皮案震驚了整個(gè)濱河市办龄,隨后出現(xiàn)的幾起案子淋昭,更是在濱河造成了極大的恐慌,老刑警劉巖英融,帶你破解...
    沈念sama閱讀 206,839評論 6 482
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件驶悟,死亡現(xiàn)場離奇詭異材失,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)额获,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,543評論 2 382
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來耘眨,“玉大人,你說我怎么就攤上這事胆屿∨脊” “怎么了?”我有些...
    開封第一講書人閱讀 153,116評論 0 344
  • 文/不壞的土叔 我叫張陵憎兽,是天一觀的道長吵冒。 經(jīng)常有香客問我痹栖,道長,這世上最難降的妖魔是什么揪阿? 我笑而不...
    開封第一講書人閱讀 55,371評論 1 279
  • 正文 為了忘掉前任,我火速辦了婚禮旧找,結(jié)果婚禮上嚼摩,老公的妹妹穿的比我還像新娘。我一直安慰自己枕面,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,384評論 5 374
  • 文/花漫 我一把揭開白布琼开。 她就那樣靜靜地躺著,像睡著了一般枕荞。 火紅的嫁衣襯著肌膚如雪柜候。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,111評論 1 285
  • 那天躏精,我揣著相機(jī)與錄音渣刷,去河邊找鬼。 笑死矗烛,一個(gè)胖子當(dāng)著我的面吹牛辅柴,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播瞭吃,決...
    沈念sama閱讀 38,416評論 3 400
  • 文/蒼蘭香墨 我猛地睜開眼碌嘀,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了歪架?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,053評論 0 259
  • 序言:老撾萬榮一對情侶失蹤和蚪,失蹤者是張志新(化名)和其女友劉穎止状,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體攒霹,經(jīng)...
    沈念sama閱讀 43,558評論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡导俘,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,007評論 2 325
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了剔蹋。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片旅薄。...
    茶點(diǎn)故事閱讀 38,117評論 1 334
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出少梁,到底是詐尸還是另有隱情洛口,我是刑警寧澤,帶...
    沈念sama閱讀 33,756評論 4 324
  • 正文 年R本政府宣布凯沪,位于F島的核電站第焰,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏妨马。R本人自食惡果不足惜挺举,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,324評論 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望烘跺。 院中可真熱鬧湘纵,春花似錦、人聲如沸滤淳。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,315評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽脖咐。三九已至铺敌,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間屁擅,已是汗流浹背偿凭。 一陣腳步聲響...
    開封第一講書人閱讀 31,539評論 1 262
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留派歌,地道東北人弯囊。 一個(gè)月前我還...
    沈念sama閱讀 45,578評論 2 355
  • 正文 我出身青樓,卻偏偏與公主長得像硝皂,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個(gè)殘疾皇子作谭,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,877評論 2 345

推薦閱讀更多精彩內(nèi)容

  • 線性回歸 主要內(nèi)容包括: 線性回歸的基本要素 線性回歸模型從零開始的實(shí)現(xiàn) 線性回歸模型使用pytorch的簡潔實(shí)現(xiàn)...
    寇元寶閱讀 1,059評論 0 0
  • 1.安裝 https://pytorch.orgpip3 config set global.index-url ...
    dingtom閱讀 345評論 0 0
  • transformers是huggingface提供的預(yù)訓(xùn)練模型庫稽物,可以輕松調(diào)用API來得到你的詞向量。trans...
    曉柒NLP與藥物設(shè)計(jì)閱讀 7,269評論 0 10
  • 1.tensor類型數(shù)據(jù)操作 隨機(jī)生成5*3的tensor y = torch.rand(5, 3)print(y...
    Diros1g閱讀 561評論 0 0
  • 建議大家可以配合跟著B站的跟李沐學(xué)AI折欠。但是datawhale 也是講的非常好的課程贝或。 代碼演示部分:配合本章學(xué)習(xí)...
    def1037aab9e閱讀 380評論 0 0