隨機策略梯度算法(stochastic-policy-gradient)-強化學習

策略搜索方法相對於值函數法有如下優缺點 優點: 直接策略搜索方法是對策略 π \pi π進行參數化表示,與值函數方中對值函數進行參數化表示相比,策略參數化更簡單,有更好的收斂性。 利用值函數方法求解最優策略時,策略改進需要求解 a r g m a x a Q θ ( s , a ) argmax_a Q_\theta(s,a) argmaxa​Qθ​(s,a),當要解決的問題動作空間很大或者動作爲
相關文章
相關標籤/搜索