在一篇文章強(qiáng)化學(xué)習(xí)與馬爾可夫決策中缩麸,介紹了使用馬爾可夫決策過程對強(qiáng)化學(xué)習(xí)的過程進(jìn)行建模。通過建墓ε冢可以得出,只要求解最優(yōu)價(jià)值函數(shù)术唬,即可得到對應(yīng)的最優(yōu)策略薪伏。那么如何求解最優(yōu)價(jià)值函數(shù)呢?本篇文章將介紹一些最優(yōu)價(jià)值函數(shù)的求解算法粗仓。
predict和control
首先介紹一下強(qiáng)化學(xué)習(xí)的兩個(gè)基本問題嫁怀,預(yù)測和控制。
predict
在已知狀態(tài)集借浊,動(dòng)作集
塘淑,模型狀態(tài)轉(zhuǎn)化概率矩陣
,即時(shí)獎(jiǎng)勵(lì)
蚂斤,衰減因子
的條件下存捺,給定策略
,預(yù)測該策略的狀態(tài)價(jià)值函數(shù)
曙蒸。這一過程一般稱為策略評估捌治。
control
在已知狀態(tài)集,動(dòng)作集
逸爵,模型狀態(tài)轉(zhuǎn)化概率矩陣
具滴,即時(shí)獎(jiǎng)勵(lì)
,衰減因子
的條件下师倔,求解最優(yōu)的狀態(tài)價(jià)值函數(shù)
和最優(yōu)策略
构韵。
從mode-based的方面去看這兩個(gè)問題其實(shí)更好理解,在了解模型機(jī)制的基礎(chǔ)上趋艘,預(yù)測所有可能的狀態(tài)價(jià)值函數(shù)疲恢,然后基于預(yù)測的值,來選取最優(yōu)價(jià)值函數(shù)和最優(yōu)策略瓷胧,這個(gè)過程被稱為策略迭代显拳。
動(dòng)態(tài)規(guī)劃
動(dòng)態(tài)規(guī)劃是一種可以求解強(qiáng)化學(xué)習(xí)兩個(gè)基本問題的一種方式,其理論依據(jù)是貝爾曼方程搓萧。狀態(tài)價(jià)值函數(shù)的貝爾曼方程如下:
通過這個(gè)公式可以看出杂数,當(dāng)前迭代周期某狀態(tài)的狀態(tài)價(jià)值宛畦,可以通過上一個(gè)迭代周期內(nèi)的狀態(tài)價(jià)值來計(jì)算更新。這就滿足了使用動(dòng)態(tài)規(guī)劃的兩個(gè)條件揍移,問題的最優(yōu)解可以由子問題的最優(yōu)解構(gòu)成且可以通過較小的子問題狀態(tài)遞推出較大子問題的狀態(tài)次和。
策略評估
結(jié)合貝爾曼方程,預(yù)測問題求解的過程如下:
其中表示第
輪狀態(tài)
的價(jià)值函數(shù)那伐。
策略迭代
控制問題的求解一般可以使用greedy策略踏施。對于當(dāng)前狀態(tài),選擇后續(xù)所有可能轉(zhuǎn)移到的狀態(tài)集合
中罕邀,狀態(tài)價(jià)值最大的那個(gè)狀態(tài)對應(yīng)的策略
畅形。
整個(gè)策略迭代過程可以理解為以下兩個(gè)過程:
使用當(dāng)前策略
評估計(jì)算當(dāng)前策略的狀態(tài)價(jià)值
。
根據(jù)狀態(tài)價(jià)值
根據(jù)一定的方法(比如貪婪法)更新策略
诉探。
重復(fù)迭代以上兩個(gè)過程日熬,最終得到收斂的策略和狀態(tài)價(jià)值
。
蒙特卡洛法
蒙特卡洛法是一種通過采樣近似求解問題的方法肾胯。與動(dòng)態(tài)規(guī)劃不同碍遍,蒙特卡洛法不需要考慮交互過程中的狀態(tài)轉(zhuǎn)化,其通過采樣若干完整的交互狀態(tài)序列來估計(jì)狀態(tài)的真實(shí)值阳液。
完整的交互狀態(tài)序列指的是從開始到終點(diǎn)的交互序列怕敬,可以在迭代的過程中產(chǎn)生。通過多組完整的交互狀態(tài)序列進(jìn)行來近似的估計(jì)狀態(tài)價(jià)值帘皿,之后便可以求解預(yù)測和控制問題了东跪。
由于蒙特卡洛法是通過采樣的方式來估計(jì)狀態(tài)價(jià)值,不需要考慮交互過程中狀態(tài)的轉(zhuǎn)化鹰溜,因此屬于mode-free的強(qiáng)化學(xué)習(xí)求解方法虽填。反觀動(dòng)態(tài)規(guī)劃,由于考慮狀態(tài)的轉(zhuǎn)化曹动,因此屬于mode-based的強(qiáng)化學(xué)習(xí)求解方法斋日。
策略評估
使用蒙特卡洛法進(jìn)行策略評估的理論依據(jù)是狀態(tài)價(jià)值函數(shù)的定義:
從公式上可以看出,每個(gè)狀態(tài)的價(jià)值函數(shù)墓陈,等于其后續(xù)所有的獎(jiǎng)勵(lì)與對應(yīng)的衰減乘積求和的期望恶守。
因此,對于一個(gè)策略贡必,如果采樣得到的完整的
個(gè)交互狀態(tài)序列如下:
那么對于時(shí)刻的狀態(tài)價(jià)值函數(shù)可以通過下面的方式進(jìn)行求解:
如此一來兔港,就簡單的解決了預(yù)測問題,不過還可以進(jìn)行進(jìn)一步的優(yōu)化仔拟。在上式中衫樊,計(jì)算狀態(tài)價(jià)值函數(shù)需要使用到后續(xù)所有獎(jiǎng)勵(lì)的均值,這意味著必須存儲(chǔ)相關(guān)的所有獎(jiǎng)勵(lì)的值,而且其存儲(chǔ)量會(huì)隨著采樣數(shù)量的增加而增加科侈。
為了解決這個(gè)問題载佳,引入了累計(jì)更新平均值的方法,即下面這個(gè)公式:
其中表示第
輪迭代的均值臀栈,
表示第
輪迭代的均值刚盈。
參考這個(gè)公式,我們可以將狀態(tài)價(jià)值公式的計(jì)算改寫為:
這樣一來挂脑,只需要保存上一輪的次數(shù)和對應(yīng)的收獲,即可求解當(dāng)前輪次的均值欲侮。如果數(shù)據(jù)量過大崭闲,以至于無法準(zhǔn)確的計(jì)算,還可以使用一個(gè)系數(shù)
來代替威蕉,將更新公式改為:
根據(jù)狀態(tài)價(jià)值函數(shù)的求解公式刁俭,同時(shí)可以類推出動(dòng)作價(jià)值函數(shù)的求解公式:
策略迭代
與動(dòng)態(tài)規(guī)劃不同,蒙特卡洛法的目標(biāo)是得到最優(yōu)動(dòng)作函數(shù)而不是最優(yōu)價(jià)值函數(shù)
韧涨。同時(shí)牍戚,蒙特卡洛法在進(jìn)行策略選取的時(shí)候,使用的也不是greedy法虑粥,而是
-greedy法如孝。
-greedy的區(qū)別是增加了一個(gè)參數(shù)
。在進(jìn)行策略選擇時(shí)娩贷,使用1-
的概率選擇當(dāng)前最大的動(dòng)作函數(shù)對應(yīng)的動(dòng)作第晰,
的概率隨機(jī)在
個(gè)動(dòng)作中選取一個(gè)動(dòng)作。用公式表示如下:
一般來說的取值一般比較小彬祖,且在實(shí)際使用中會(huì)隨著訓(xùn)練的不斷迭代而減小茁瘦。在強(qiáng)化學(xué)習(xí)訓(xùn)練的過程中,通過這種隨機(jī)選取動(dòng)作的方式储笑,可以增加樣本的多樣性甜熔,探索到更多的樣本空間。
完整的算法流程如下:
初始化所有的動(dòng)作價(jià)值
突倍, 狀態(tài)次數(shù)
腔稀,采樣次數(shù)
,隨機(jī)初始化一個(gè)策略
羽历。
-
, 基于策略進(jìn)行第
次蒙特卡羅采樣烧颖,得到一個(gè)完整的狀態(tài)序列:
-
對于該狀態(tài)序列里出現(xiàn)的每一狀態(tài)行為對,計(jì)算其收獲, 更新其計(jì)數(shù)和行為價(jià)值函數(shù):
-
基于新計(jì)算出的動(dòng)作價(jià)值窄陡,更新當(dāng)前的
-greedy策略:
如果所有的
收斂炕淮,則對應(yīng)的所有
即為最優(yōu)的動(dòng)作價(jià)值函數(shù)
。對應(yīng)的策略即為最優(yōu)策略
跳夭。否則轉(zhuǎn)到第二步涂圆。
時(shí)序差分TD
時(shí)序差分法與蒙特卡洛法一樣们镜,都是model-free強(qiáng)化學(xué)習(xí)問題的求解方法。區(qū)別在于润歉,時(shí)序差分法是在沒有采樣到完整的交互序列的情況下模狭,通過部分的狀態(tài)序列去估計(jì)狀態(tài)的價(jià)值。
策略評估
考慮狀態(tài)價(jià)值函數(shù)的另一種形式:
時(shí)序差分法用來近似的代替收獲
踩衩,使得只需要兩個(gè)連續(xù)的狀態(tài)和對應(yīng)的獎(jiǎng)勵(lì)嚼鹉,即可求解。
一般稱為TD目標(biāo)值驱富,
稱為TD誤差锚赤,用TD目標(biāo)值近似代替收獲的過程稱為引導(dǎo)(bootstrapping)。
因此褐鸥,時(shí)序差分的表達(dá)式為:
時(shí)序差分的價(jià)值函數(shù)迭代式為:
其中是一個(gè)值為[0,1]之間的數(shù)线脚。
策略迭代
對于時(shí)序差分,也可以用-greedy來進(jìn)行價(jià)值迭代叫榕,和蒙特卡羅法的區(qū)別主要只是在于收獲的計(jì)算方式不同浑侥。
n步時(shí)序差分
普通的時(shí)序差分主要關(guān)注的是當(dāng)前時(shí)刻以及下一時(shí)刻的狀態(tài)價(jià)值,可以理解為向前一步來近似求解晰绎。n步時(shí)序差分的意思是向前n步來進(jìn)行求解寓落,其收獲的表達(dá)式如下:
當(dāng)n趨于無窮大時(shí),即覆蓋到完整的交互序列時(shí)荞下,n步時(shí)序差分也就變成了蒙特卡洛零如。與普通的時(shí)序差分相比,n步時(shí)序差分因?yàn)榭紤]了向前n步锄弱,所以會(huì)更加精確一些考蕾。
TD()
在使用n步時(shí)序差分的時(shí)候,這個(gè)n是一個(gè)超參數(shù)会宪,需要通過不斷的優(yōu)化去選擇一個(gè)最優(yōu)的值肖卧。這一過程比較繁瑣,為了解決這個(gè)問題掸鹅,引入了一個(gè)值為[0,1]的參數(shù)塞帐。定義
-收獲是n從1到
所有步的收獲乘以權(quán)重的和,每一步的權(quán)重是
巍沙。
這樣-收獲可以表示為:
迭代函數(shù)可以表示為:
從上面的式子可以看出葵姥,當(dāng)等于0時(shí),算法就變成了普通的時(shí)序差分句携,當(dāng)
等于1時(shí)榔幸,則變成了蒙特卡洛。因此,TD(
)就是在兩者之間作了一個(gè)平衡削咆。