線性二次型高斯(Linear Quadratic Gaussian (LQG)) 在現(xiàn)實世界中,我們通常不能獲取到所有的狀態(tài)st。比如一個自動駕...
上一節(jié)中我們介紹了一個特殊的MDP模型:線性二次型調(diào)節(jié)控制(LQR)吏垮。事實上很多問題都可以用LQR來解決率挣,即使動態(tài)模型是非線性的绑榴。盡管LQR是一...
有限邊界的MDP 在前面兩章關(guān)于強化學(xué)習(xí)的介紹中朵逝,我們定義了馬爾可夫決策過程(MDP)以及價值迭代/策略迭代這兩種用于求解MDP的算法淳蔼。特別地稚虎,...
到目前為止撤嫩,我們一直都在討論有限狀態(tài)下的MDP問題,現(xiàn)在我們來看下當(dāng)狀態(tài)數(shù)量是無限時如何求解MDP問題蠢终。 離散化 也許求解無限狀態(tài)下的MDP問題...
這一節(jié)開始我們介紹強化學(xué)習(xí)(reinforcement learning)序攘。在監(jiān)督學(xué)習(xí)中,對于一個給定的輸入x寻拂,我們可以明確知道輸出y程奠。而在很多...
這一節(jié)的主題是獨立成分分析(Independent Components Analysis, ICA)。和PCA的降維思路不同兜喻,ICA主要解決的...
上一節(jié)我們介紹了因子分析梦染,該模型通過一系列變換可以將高維數(shù)據(jù)用低維數(shù)據(jù)來表示。因子分析基于的是概率模型朴皆,并且需要用到EM算法進(jìn)行參數(shù)估計帕识。 這一...
上一節(jié)我們介紹了用EM算法求解混合高斯模型,但這個算法通常是在樣本數(shù)足夠多的情況下才成立遂铡,即滿足樣本數(shù)m遠(yuǎn)遠(yuǎn)大于特征數(shù)n肮疗。 如果n >> m,那...
這一節(jié)開始我們討論非監(jiān)督學(xué)習(xí)(Unsupervised Learning)的算法扒接。在監(jiān)督學(xué)習(xí)算法中伪货,訓(xùn)練數(shù)據(jù)既包含特征也包含標(biāo)簽们衙,通常表示為{(...