240 發(fā)簡(jiǎn)信
IP屬地:天津
  • 120
    最優(yōu)控制: LQR

    一份關(guān)于 LQR 的簡(jiǎn)單易懂的入門級(jí)教程橄仆,它是最優(yōu)控制的基礎(chǔ)概念。 我將會(huì)在這篇文章中討論最優(yōu)控制葬毫,并會(huì)更具體的討論性能非常優(yōu)秀的線性二次調(diào)節(jié)器。在最優(yōu)控制領(lǐng)域中瞭郑,它的使用頻...

  • 偽隨機(jī)數(shù)算法生成高斯分布

    偽隨機(jī)數(shù)算法 平方取中法(Middle-square method)是個(gè)產(chǎn)生偽隨機(jī)數(shù)的方法臼节,由馮·諾伊曼在1946年提出帕膜。 算法: 即 平方取中法計(jì)算較快皆警,但在實(shí)際應(yīng)用時(shí)會(huì)發(fā)...

  • 120
    反向傳播算法

    卷積網(wǎng)絡(luò) 這里討論通過(guò)卷積的方式表達(dá)CNN反向傳播 池化層 假設(shè)我們的池化區(qū)域大小是2x2拦宣,并且下一層的梯度為: 如果是MAX,假設(shè)我們之前在前向傳播時(shí)記錄的最大值位置分別是...

  • 從傅里葉級(jí)數(shù)到快速傅里葉變換

    在計(jì)算機(jī)上編程做信號(hào)處理時(shí)信姓,我們通常用的是FFT, 但是開始學(xué)信號(hào)處理時(shí)恢着,一般是從FS開始的。所以這里整理一下從FS到FFT“演變”的過(guò)程财破。以下是傅里葉“家族”的一些名稱: ...

  • 噪聲對(duì)比估計(jì)

    說(shuō)到噪聲對(duì)比估計(jì),或者“負(fù)采樣”从诲,大家可能立馬就想到了Word2Vec左痢。事實(shí)上,它的含義遠(yuǎn)不止于此系洛,噪音對(duì)比估計(jì)(NCE, Noise Contrastive Estimat...

  • 120
    Ring Allreduce

    The Communication Problem 當(dāng)將神經(jīng)網(wǎng)絡(luò)的訓(xùn)練并行化到許多GPU上時(shí)俊性,你必須選擇如何將不同的操作分配到你可用的不同GPU上。在這里描扯,我們關(guān)注一種稱為數(shù)...

  • 120
    自然梯度

    什么是自然梯度 首先定页,我們必須理解標(biāo)準(zhǔn)梯度下降。 假設(shè)我們有一個(gè)神經(jīng)網(wǎng)絡(luò)绽诚,由一些參數(shù)向量參數(shù)化典徊。我們想要調(diào)整這個(gè)網(wǎng)絡(luò)的參數(shù),所以網(wǎng)絡(luò)的輸出在某種程度上發(fā)生了變化恩够。在大多數(shù)情況...

  • 120
    CUDA——"從入門到放棄"

    開篇一張圖卒落,后面聽我編 1. 知識(shí)準(zhǔn)備 1.1 中央處理器(CPU) 中央處理器(CPU,Central Processing Unit)是一塊超大規(guī)模的集成電路蜂桶,是一臺(tái)計(jì)算...

  • 120
    《強(qiáng)化學(xué)習(xí)導(dǎo)論》:Policy Gradient Methods

    在這一章中,我們討論策略梯度 Policy Approximation and its Advantages the approximate policy can appro...

  • 120
    《強(qiáng)化學(xué)習(xí)導(dǎo)論》:Eligibility Traces

    資格跡是增強(qiáng)學(xué)習(xí)的一個(gè)基本的機(jī)制。比如在流行的TD(k)算法中疆股,k涉及到資格跡的使用费坊。幾乎所有的時(shí)間差分算法如Q-Learning旬痹,Sarsa葵萎,都能被結(jié)合資格跡來(lái)獲得更有效的...

  • 120
    《強(qiáng)化學(xué)習(xí)導(dǎo)論》:Off-policy Methods with Approximation

    Semi-gradient Methods 前面?zhèn)€章節(jié)中谎痢,我們提到了表格法的異策略,這里稍作修改得到半梯度的異策略算法 對(duì)于動(dòng)作值函數(shù) 可以看到這里并沒有使用重要性采樣节猿,這是...

  • 在VS code中使用MSVC+命令行編譯生成C++程序

    在Windows下漫雕,想要編譯C++程序有很多種實(shí)現(xiàn)方式,Clang+LLVM浸间,GCC,MSVC等魁蒜。一般而言囊扳,要想使用微軟的MSVC編譯C++程序兜看,需要用到龐大的IDE:Vis...

  • 120
    《深度學(xué)習(xí)》:直面配分函數(shù)

    許多概率模型(通常是無(wú)向圖模型)由一個(gè)未歸一化的概率分布定義细移,我們必須除以配分函數(shù)來(lái)歸一化 對(duì)數(shù)似然梯度 通過(guò)最大似然學(xué)習(xí)無(wú)向模型特別困難的原因在于配分函數(shù)依賴于參數(shù)搏予。對(duì)數(shù)似...

  • 120
    《模式識(shí)別與機(jī)器學(xué)習(xí)》:概率分布

    二元變量 伯努利分布 似然函數(shù)為 對(duì)數(shù)似然函數(shù)為 如果我們令關(guān)于u的導(dǎo)數(shù)等于零雪侥,我們就得到了最大似然的估計(jì)值 現(xiàn)在假設(shè)我們?nèi)右粋€(gè)硬幣3次,碰巧3次都是正面朝上校镐。那么N=m= ...

  • 120
    《深度學(xué)習(xí)》:蒙特卡洛方法

    采樣和蒙特卡洛方法 當(dāng)無(wú)法精確計(jì)算和或積分(例如鸟廓,和具有指數(shù)數(shù)量個(gè)項(xiàng),且無(wú)法被精確簡(jiǎn)化) 時(shí)襟己,通常可以使用蒙特卡羅采樣來(lái)近似它 根據(jù)大數(shù)定理擎浴,如果樣本x是獨(dú)立同分布的员咽,那么其...

  • 120
    《深度學(xué)習(xí)》:深度學(xué)習(xí)中的結(jié)構(gòu)化概率模型

    結(jié)構(gòu)化概率模型為隨機(jī)變量之間的直接作用提供了一個(gè)正式的建钠踅玻框架。這種 方式大大減少了模型的參數(shù)個(gè)數(shù)以致于模型只需要更少的數(shù)據(jù)來(lái)進(jìn)行有效的估計(jì)滑频。 這些更小的模型大大減小了在模型...

  • 120
    《深度學(xué)習(xí)》:表示學(xué)習(xí)

    我們可以將監(jiān)督學(xué)習(xí)訓(xùn)練的前饋網(wǎng)絡(luò)視為表示學(xué)習(xí)的一種形式峡迷。具體地银伟,網(wǎng)絡(luò)的最后一層通常是線性分類器,如 softmax 回歸分類器彤避。網(wǎng)絡(luò)的其余部分學(xué)習(xí)出該分類器的表示。 貪心逐層...

  • 120
    《深度學(xué)習(xí)》:自編碼器

    自編碼器的一般結(jié)構(gòu) 從自編碼器獲得有用特征的一種方法是限制 h 的維度比 x 小,這種編碼維度 小于輸入維度的自編碼器稱為欠完備(undercomplete)自編碼器蒿褂。 學(xué)習(xí)...

個(gè)人介紹
一些學(xué)習(xí)筆記
亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品