《強化學習》近似值函數方法

強化學習和監督學習 表格方法的侷限 RL中的函數近似 監督學習-MC MC—TD 基於值函數的RL損失函數 近似方法的一些困難 Deep Q-Network 經驗回放 目標網絡 獎勵裁剪 DQN的一些問題和解決 Q值自相關問題 Q值過度估計 優先經驗回放 Bootstrap DQN 部分可見性
相關文章
相關標籤/搜索