240 發(fā)簡(jiǎn)信
IP屬地:遼寧
  • 120
    LSTM - 長(zhǎng)短期記憶網(wǎng)絡(luò)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN) 人們不是每一秒都從頭開(kāi)始思考,就像你閱讀本文時(shí),不會(huì)從頭去重新學(xué)習(xí)一個(gè)文字,人類(lèi)的思維是有持續(xù)性的。傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)沒(méi)有記憶掀抹,不能解決這一個(gè)問(wèn)題,循...

  • 120
    三種梯度下降算法的區(qū)別(BGD, SGD, MBGD)

    前言 我們?cè)谟?xùn)練網(wǎng)絡(luò)的時(shí)候經(jīng)常會(huì)設(shè)置 batch_size心俗,這個(gè) batch_size 究竟是做什么用的傲武,一萬(wàn)張圖的數(shù)據(jù)集,應(yīng)該設(shè)置為多大呢城榛,設(shè)置為 1揪利、10、100 或者是...

  • 數(shù)據(jù)降維:主成分分析法

    前言 什么叫做主成分分析法狠持,我們先看一張圖橢圓的圖疟位,如果讓你找一條線,使得橢圓上所有點(diǎn)在該線上映射的點(diǎn)最分散喘垂,保留下來(lái)的信息最多甜刻,你會(huì)怎么選擇這條線?若是下圖正勒,會(huì)選擇水平線得院,...

  • Sigmoid 函數(shù)

    前言 Sigmoid 函數(shù)(Logistic 函數(shù))是神經(jīng)網(wǎng)絡(luò)中非常常用的激活函數(shù),我們今天來(lái)深入了解一下 Sigmoid 函數(shù)章贞。 函數(shù)形式 函數(shù)圖像 代碼實(shí)現(xiàn) 代碼運(yùn)行:C...

  • 深度學(xué)習(xí)中的正則化(一)

    本文首發(fā)自公眾號(hào):RAIS祥绞,點(diǎn)擊直接關(guān)注。 前言 本系列文章為《Deep Learning》讀書(shū)筆記鸭限,可以參看原書(shū)一起閱讀就谜,效果更佳。本文我們聊一聊深度學(xué)習(xí)中的正則化里覆。 深度...

  • 深度前饋網(wǎng)絡(luò)

    本文首發(fā)自公眾號(hào):RAIS,點(diǎn)擊直接關(guān)注缆瓣。 前言 本系列文章為《Deep Learning》讀書(shū)筆記喧枷,可以參看原書(shū)一起閱讀,效果更佳。從本文開(kāi)始將繼續(xù)學(xué)習(xí)本書(shū)的第二部分隧甚,將從...

  • 考研經(jīng)歷吐血總結(jié)

    前言 考研總算是結(jié)束了车荔,現(xiàn)在真的腦殼疼,真的是那種生理上的腦殼痛戚扳,睡一覺(jué)應(yīng)該就好了的那種忧便。 上一篇 寫(xiě)考研的事情差不多是初試結(jié)束后的時(shí)間,當(dāng)時(shí)覺(jué)得考得不好帽借,但是沒(méi)有出成績(jī)珠增,簡(jiǎn)...

  • 120
    構(gòu)建機(jī)器學(xué)習(xí)算法

    本文首發(fā)自公眾號(hào):RAIS,點(diǎn)擊直接關(guān)注砍艾。 前言 本系列文章為《Deep Learning》讀書(shū)筆記蒂教,可以參看原書(shū)一起閱讀,效果更佳脆荷。我們前面也介紹了一些構(gòu)建機(jī)器學(xué)習(xí)或深度學(xué)...

  • 隨機(jī)梯度下降

    本文首發(fā)自公眾號(hào):RAIS凝垛,點(diǎn)擊直接關(guān)注。 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記蜓谋,可以參看原書(shū)一起閱讀梦皮,效果更佳。 梯度下降算法 在機(jī)器學(xué)習(xí)或深度學(xué)習(xí)...

  • 無(wú)監(jiān)督學(xué)習(xí)算法

    本文首發(fā)自公眾號(hào):RAIS桃焕,點(diǎn)擊直接關(guān)注剑肯。 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記,可以參看原書(shū)一起閱讀覆旭,效果更佳退子。 無(wú)監(jiān)督學(xué)習(xí)算法 就是無(wú)監(jiān)督的一種學(xué)...

  • 監(jiān)督學(xué)習(xí)算法

    本文首發(fā)自公眾號(hào):RAIS,點(diǎn)擊直接關(guān)注型将。 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記寂祥,可以參看原書(shū)一起閱讀,效果更佳七兜。由于各平臺(tái) Markdown 解析差...

  • 最大似然估計(jì)與最大后驗(yàn)估計(jì)

    前言 本系列文章為 《Deep Learning》 讀書(shū)筆記丸凭,可以參看原書(shū)一起閱讀,效果更佳腕铸。 MLE VS MAP 最大似然函數(shù)(MLE)和最大后驗(yàn)概率估計(jì)(MAP)是兩種...

  • 估計(jì)惜犀、偏差和方差

    本文首發(fā)自公眾號(hào):RAIS 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記,可以參看原書(shū)一起閱讀狠裹,效果更佳虽界。 估計(jì) 統(tǒng)計(jì)的目的是為了推斷,大量的統(tǒng)計(jì)是為了更好的...

  • 120
    超參數(shù)涛菠、驗(yàn)證集和K-折交叉驗(yàn)證

    本文首發(fā)自公眾號(hào):RAIS ?前言 本系列文章為 《Deep Learning》 讀書(shū)筆記莉御,可以參看原書(shū)一起閱讀撇吞,效果更佳。 超參數(shù) 參數(shù):網(wǎng)絡(luò)模型在訓(xùn)練過(guò)程中不斷學(xué)習(xí)自動(dòng)調(diào)...

  • 120
    過(guò)擬合和欠擬合

    本文首發(fā)自公眾號(hào):RAIS ?前言 本系列文章為 《Deep Learning》 讀書(shū)筆記礁叔,可以參看原書(shū)一起閱讀牍颈,效果更佳。 構(gòu)建復(fù)雜的機(jī)器學(xué)習(xí)算法 上一篇文章中我們介紹了什...

  • 機(jī)器學(xué)習(xí)算法

    本文首發(fā)自公眾號(hào):RAIS 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記琅关,可以參看原書(shū)一起閱讀煮岁,效果更佳。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的子集涣易,因此想更深入的了解深度學(xué)習(xí)...

  • 深度學(xué)習(xí)中的數(shù)值計(jì)算

    本文首發(fā)自公眾號(hào):RAIS 前言 本系列文章為《Deep Learning》讀書(shū)筆記画机,可以參看原書(shū)一起閱讀,效果更佳都毒。 ?數(shù)值計(jì)算 機(jī)器學(xué)習(xí)算法需要大量的數(shù)字計(jì)算色罚,并且這些計(jì)...

  • 深度學(xué)習(xí)中的信息論

    本文首發(fā)自公眾號(hào):RAIS,期待你的關(guān)注账劲。 前言 本系列文章為 《Deep Learning》 讀書(shū)筆記戳护,可以參看原書(shū)一起閱讀,效果更佳瀑焦。 ?信息論 信息論是數(shù)學(xué)上一個(gè)分支腌且,...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品