
循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN) 人們不是每一秒都從頭開(kāi)始思考,就像你閱讀本文時(shí),不會(huì)從頭去重新學(xué)習(xí)一個(gè)文字,人類(lèi)的思維是有持續(xù)性的。傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)沒(méi)有記憶掀抹,不能解決這一個(gè)問(wèn)題,循...
前言 我們?cè)谟?xùn)練網(wǎng)絡(luò)的時(shí)候經(jīng)常會(huì)設(shè)置 batch_size心俗,這個(gè) batch_size 究竟是做什么用的傲武,一萬(wàn)張圖的數(shù)據(jù)集,應(yīng)該設(shè)置為多大呢城榛,設(shè)置為 1揪利、10、100 或者是...
前言 什么叫做主成分分析法狠持,我們先看一張圖橢圓的圖疟位,如果讓你找一條線,使得橢圓上所有點(diǎn)在該線上映射的點(diǎn)最分散喘垂,保留下來(lái)的信息最多甜刻,你會(huì)怎么選擇這條線?若是下圖正勒,會(huì)選擇水平線得院,...
前言 Sigmoid 函數(shù)(Logistic 函數(shù))是神經(jīng)網(wǎng)絡(luò)中非常常用的激活函數(shù),我們今天來(lái)深入了解一下 Sigmoid 函數(shù)章贞。 函數(shù)形式 函數(shù)圖像 代碼實(shí)現(xiàn) 代碼運(yùn)行:C...
本文首發(fā)自公眾號(hào):RAIS祥绞,點(diǎn)擊直接關(guān)注。 前言 本系列文章為《Deep Learning》讀書(shū)筆記鸭限,可以參看原書(shū)一起閱讀就谜,效果更佳。本文我們聊一聊深度學(xué)習(xí)中的正則化里覆。 深度...
本文首發(fā)自公眾號(hào):RAIS,點(diǎn)擊直接關(guān)注缆瓣。 前言 本系列文章為《Deep Learning》讀書(shū)筆記喧枷,可以參看原書(shū)一起閱讀,效果更佳。從本文開(kāi)始將繼續(xù)學(xué)習(xí)本書(shū)的第二部分隧甚,將從...
前言 考研總算是結(jié)束了车荔,現(xiàn)在真的腦殼疼,真的是那種生理上的腦殼痛戚扳,睡一覺(jué)應(yīng)該就好了的那種忧便。 上一篇 寫(xiě)考研的事情差不多是初試結(jié)束后的時(shí)間,當(dāng)時(shí)覺(jué)得考得不好帽借,但是沒(méi)有出成績(jī)珠增,簡(jiǎn)...
本文首發(fā)自公眾號(hào):RAIS,點(diǎn)擊直接關(guān)注砍艾。 前言 本系列文章為《Deep Learning》讀書(shū)筆記蒂教,可以參看原書(shū)一起閱讀,效果更佳脆荷。我們前面也介紹了一些構(gòu)建機(jī)器學(xué)習(xí)或深度學(xué)...
本文首發(fā)自公眾號(hào):RAIS凝垛,點(diǎn)擊直接關(guān)注。 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記蜓谋,可以參看原書(shū)一起閱讀梦皮,效果更佳。 梯度下降算法 在機(jī)器學(xué)習(xí)或深度學(xué)習(xí)...
本文首發(fā)自公眾號(hào):RAIS桃焕,點(diǎn)擊直接關(guān)注剑肯。 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記,可以參看原書(shū)一起閱讀覆旭,效果更佳退子。 無(wú)監(jiān)督學(xué)習(xí)算法 就是無(wú)監(jiān)督的一種學(xué)...
本文首發(fā)自公眾號(hào):RAIS,點(diǎn)擊直接關(guān)注型将。 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記寂祥,可以參看原書(shū)一起閱讀,效果更佳七兜。由于各平臺(tái) Markdown 解析差...
前言 本系列文章為 《Deep Learning》 讀書(shū)筆記丸凭,可以參看原書(shū)一起閱讀,效果更佳腕铸。 MLE VS MAP 最大似然函數(shù)(MLE)和最大后驗(yàn)概率估計(jì)(MAP)是兩種...
本文首發(fā)自公眾號(hào):RAIS 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記,可以參看原書(shū)一起閱讀狠裹,效果更佳虽界。 估計(jì) 統(tǒng)計(jì)的目的是為了推斷,大量的統(tǒng)計(jì)是為了更好的...
本文首發(fā)自公眾號(hào):RAIS ?前言 本系列文章為 《Deep Learning》 讀書(shū)筆記莉御,可以參看原書(shū)一起閱讀撇吞,效果更佳。 超參數(shù) 參數(shù):網(wǎng)絡(luò)模型在訓(xùn)練過(guò)程中不斷學(xué)習(xí)自動(dòng)調(diào)...
本文首發(fā)自公眾號(hào):RAIS ?前言 本系列文章為 《Deep Learning》 讀書(shū)筆記礁叔,可以參看原書(shū)一起閱讀牍颈,效果更佳。 構(gòu)建復(fù)雜的機(jī)器學(xué)習(xí)算法 上一篇文章中我們介紹了什...
本文首發(fā)自公眾號(hào):RAIS 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記琅关,可以參看原書(shū)一起閱讀煮岁,效果更佳。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的子集涣易,因此想更深入的了解深度學(xué)習(xí)...
本文首發(fā)自公眾號(hào):RAIS 前言 本系列文章為《Deep Learning》讀書(shū)筆記画机,可以參看原書(shū)一起閱讀,效果更佳都毒。 ?數(shù)值計(jì)算 機(jī)器學(xué)習(xí)算法需要大量的數(shù)字計(jì)算色罚,并且這些計(jì)...
本文首發(fā)自公眾號(hào):RAIS,期待你的關(guān)注账劲。 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記戳护,可以參看原書(shū)一起閱讀,效果更佳瀑焦。 ?信息論 信息論是數(shù)學(xué)上一個(gè)分支腌且,...