Policy Gradient簡述

佔個坑!!! 簡單解釋 Policy Gradient需要Actor 網絡來實現,通過對動作的輸出概率的對數似然值乘上動作的價值評價作爲loss去更新policy(動作的概率)。對於動作的價值評價更是多種多樣,這些就是PG(Policy Gradient)的核心部分。 注:log的有無區別 加log:增加了非線性 無log:無非線性 詳情在這裏: 一共涉及6種價值的評估: 1 軌跡中,全部獎勵值的
相關文章
相關標籤/搜索