關係性深度強化學習

深度強化學習的缺陷: 採樣效率低以及每每不能泛化至任務中看似微小的變化 。 這些缺陷代表,具備較強能力的深度強化學習模型每每對其所訓練的大量數據過分擬合,所以沒法理解它們試圖解決的問題的抽象性、可解釋性和可歸納性。 關係性深度強化學習 這種新型強化學習能夠經過結構化感知和關係推理提升常規方法的效率、泛化能力和可解釋性。 RRL 背後的核心思想即經過使用一階(或關係)語言表示狀態、動做和策略,將強化
相關文章
相關標籤/搜索