我在學(xué)習(xí)樸素貝葉斯算法時(shí)础倍,發(fā)現(xiàn)所選教材中對于似然度與概率之間的概念區(qū)分解釋的并不詳細(xì) (可能作者認(rèn)為這是基礎(chǔ)知識六孵,所以沒有詳細(xì)闡述吧hh) 碰巧刑然,我自己對于概率論的知識忘得差...
我在學(xué)習(xí)樸素貝葉斯算法時(shí)础倍,發(fā)現(xiàn)所選教材中對于似然度與概率之間的概念區(qū)分解釋的并不詳細(xì) (可能作者認(rèn)為這是基礎(chǔ)知識六孵,所以沒有詳細(xì)闡述吧hh) 碰巧刑然,我自己對于概率論的知識忘得差...
折騰了幾天博客的框架終于搭建起來了。研究了一番之后圆凰,最終還是選擇使用Hugo和GitHub來搭建博客远舅。本文介紹了如何使用Hugo來搭建靜態(tài)博客網(wǎng)站,并將其部署在GitHub上...
一文讓你理解什么是卷積神經(jīng)網(wǎng)絡(luò) 從神經(jīng)網(wǎng)絡(luò)到卷積神經(jīng)網(wǎng)絡(luò)(CNN) 我們知道神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是這樣的: 那卷積神經(jīng)網(wǎng)絡(luò)跟它是什么關(guān)系呢僵控?其實(shí)卷積神經(jīng)網(wǎng)絡(luò)依舊是層級網(wǎng)絡(luò)香到,只是層的...
關(guān)于 TensorFlow TensorFlow? 是一個(gè)采用數(shù)據(jù)流圖(data flow graphs),用于數(shù)值計(jì)算的開源軟件庫报破。節(jié)點(diǎn)(Nodes)在圖中表示數(shù)學(xué)操作悠就,圖...
假設(shè)當(dāng)前預(yù)測模型的回歸系數(shù)只有w1,w2, 繪制出的目標(biāo)函數(shù)(即 OLS損失函數(shù)+懲罰項(xiàng))的等高線充易。 我們以Ridge回歸為例梗脾,講解L2正則化的原理。理解之后蔽氨,L1正則化自然...
今天看新聞藐唠,多地高三終于開學(xué)了,看著他們風(fēng)華正茂的樣子鹉究,想著他們幾個(gè)月后就要成為大學(xué)校園的一份子宇立,我自己不禁也感慨萬千。 說長不長自赔,說短不短妈嘹,距離我踏入大學(xué)本科校園的日子也已...