強化學習筆記(6)Policy Gradient 策略梯度下降

文章目錄 概念 Value-Based and Policy-Based RL Value-Based Policy -Based Actor-Critic 目標函數的確定 梯度下降解決問題 Likelihood ratios 自然對數 Softmax Policy Gaussian Policy 連續動作空間 一步MDP過程爲例:利用score function推導梯度。 One Step MD
相關文章
相關標籤/搜索