Google的優(yōu)化工具:
程序?qū)崿F(xiàn)肯定好撕阎,但是如果想要滿足需求還需要進(jìn)一步加入動(dòng)態(tài)的,考慮到該工具可以支持有初始路徑的場景進(jìn)行方案分配碌补,那么就可以滿足實(shí)時(shí)更新的要求虏束,把每天分為多個(gè)時(shí)間段,在每個(gè)時(shí)間段內(nèi)看作是一個(gè)靜態(tài)的VRP問題厦章。那這個(gè)程序不需要進(jìn)行太大的改造就還可以镇匀,還有一個(gè)關(guān)鍵的問題是,評價(jià)指標(biāo)在這個(gè)程序中如何體現(xiàn)袜啃?
E-ACO的方案:
需要自己從零開始寫起坑律,效果不一定好,還費(fèi)時(shí)費(fèi)力
老馬方案:
在原來的三種靜態(tài)方案上修修補(bǔ)補(bǔ)囊骤。可是要如何修改呢冀值?可研報(bào)中是說可以借助蟻群算法也物、遺傳算法等啟發(fā)式算法進(jìn)行改進(jìn),同時(shí)利用強(qiáng)化學(xué)習(xí)不斷提高系統(tǒng)的能力列疗。
這種方案需要在原來的已經(jīng)成型的靜態(tài)方案中進(jìn)行修改滑蚯,那首先就是要了解原來的靜態(tài)方案,要不然怎么修改呢抵栈?現(xiàn)在又拿不到之前靜態(tài)方案的demo告材,想要做只能自己看懂java然后去寫出來demo,然后在此之上再去修改為動(dòng)態(tài)的.
又想到似乎可以把google的方案包裝一下古劲,直接拿來用不太妥斥赋,
第一,? 需要時(shí)動(dòng)態(tài)的产艾,那可以按照杭電論文的觀點(diǎn)疤剑,把一天分為多個(gè)時(shí)間段滑绒,將動(dòng)態(tài)問題靜態(tài)化。
第二隘膘, 反正之前說過要用強(qiáng)化學(xué)習(xí)來進(jìn)一步增強(qiáng)的疑故,那就在google的基礎(chǔ)上加上強(qiáng)化學(xué)習(xí)的部分。
第三弯菊,? 這樣來做工作量似乎最小纵势。
那接下查一查這種VRP問題怎么用強(qiáng)化學(xué)習(xí)?
查找到了用強(qiáng)化學(xué)習(xí)解決VRP問題的外文文章管钳,Deep Reinforcement Learning for Solving the Vehicle Routing Problem钦铁,接下來看這篇文章如何解決,并且看看是否有源碼蹋嵌。