本發(fā)明公開了一種基于并行架構(gòu)的內(nèi)在獎勵強化學習方法,包含如下步驟:執(zhí)行模塊與模擬環(huán)境交互,獲取一整幕經(jīng)驗數(shù)據(jù)并存入緩存組件;同步學習模塊的最近更新的策略;取出定量的經(jīng)驗數(shù)據(jù)進行評估,獲得獎勵值;對經(jīng)驗數(shù)據(jù)的狀態(tài)價值函數(shù)進行估計,獲得內(nèi)部狀態(tài)價值函數(shù)與外部狀態(tài)價值函數(shù);處理內(nèi)部狀態(tài)價值函數(shù)與外部狀態(tài)價值函數(shù),獲得總狀態(tài)價值函數(shù)并改寫成近似狀態(tài)價值函數(shù);外部的智能體對預測網(wǎng)絡(luò)的參數(shù)進行優(yōu)化,并更新策略網(wǎng)絡(luò)的當前策略,獲得新策略;執(zhí)行模塊更新新策略。本發(fā)明解決了現(xiàn)有技術(shù)中價值函數(shù)估計不準、收斂到局部最優(yōu)策略的缺陷,避免了優(yōu)化結(jié)果出現(xiàn)偏差的問題,具有更高的單位時隙吞吐率、更好的性能和更快的學習速度。
聲明:
“基于并行架構(gòu)的內(nèi)在獎勵強化學習方法” 該技術(shù)專利(論文)所有權(quán)利歸屬于技術(shù)(論文)所有人。僅供學習研究,如用于商業(yè)用途,請聯(lián)系該技術(shù)所有人。
我是此專利(論文)的發(fā)明人(作者)