強化學習作為一種常用的訓練智能體的方法,能夠完成很多復雜的任務。在強化學習中,智能體的策略是通過將獎勵函數最大化訓練的。獎勵在智能體之外,各個環境中的獎勵各不相同。深度學習的成功大多是有密集并且有效的獎勵函數,例如電子游戲中不斷增加的“分數”。然而,設計一個良好的獎勵函數需要付出大量精力。另一種方法是生成內部獎勵,即由智能體自身生成的獎勵。內部獎勵包括“好奇心”(把預測錯誤當做獎勵信號)和“訪問數目”(不鼓勵智能體訪問同樣的狀態)。這些內部獎勵正是為了填補稀疏的外部獎勵之間的空白。
但是,如果某個場景沒有任何外部獎勵怎么辦?這并不奇怪。發展心理學認為,內部獎勵(例如好奇心)是發展早期的重要驅動力:嬰兒在探索世界時并不會帶有過多的目的。的確,有證據表明,在某一環境中只用內部獎勵對智能體進行預訓練可以讓它們在新環境、新任務中調整得更快。但目前為止,目前還沒有系統的針對完全內部獎勵學習的研究。
在這篇論文中,我們對各類模擬環境中智能體的內部獎勵進行了大規模實證研究。特別是我們選擇了Pathak等人提出的動態好奇心模型中的內部獎勵,因為它可擴展,并且可并行計算,可以說是大型試驗的理想工具。研究的核心是給定智能體當前的狀態,觀察內部獎勵會在預測下一個動作時出現哪些錯誤。在研究中我們一共調查了54種環境:包括電子游戲,物理引擎模擬和虛擬3D導航任務。如圖1:
圖1
為了更好地理解好奇心驅動的學習,我們接著研究了決定其表現的關鍵因素。在高維原始觀察空間中(例如圖像)對未來狀態做預測是非常有挑戰性的工作,而且最近的研究表明,在輔助特征空間中的動態學習有助于提升結果。不過,如何選擇這樣的嵌入空間非常重要,目前還沒有確切的結論。經過系統的研究,我們檢查了對智能體觀察的不同編碼方法有何作用。為了保證訓練的穩定性,我們需要選擇好的特征空間,一個好的特征空間可以讓預測更容易,并且過濾掉與觀察環境無關的因素。但是對好奇心驅動的特征空間來說,都需要有哪些特征呢?
緊湊:在較低維度并且過濾掉與觀察空間不相關的部分之后,特征會更容易建模。
高效:特征應該包含所有重要的信息。否則,智能體在探索到相關信息后不會得到獎勵。
穩定:非靜態獎勵讓強化智能體學習起來有了難度。在基于動態的好奇心驅動環境中,非靜態的來源有兩個:前動態模型隨著時間不短發展,因為它在訓練時特征也在發生變化。前者是內部的,而后者應該盡量減小。
我們發現,在很多流行的強化學習中,用隨機網絡對觀察內容編碼是非常簡單且高效的技術。有趣的是,我們發現雖然隨機特征可以在訓練中表現良好,但是學習過的特征似乎比它更好。
除此之外,我們發現重要的一點是,游戲會將“done”作為結束的信號。如果沒有這一結束信號,很多雅達利游戲就變得很容易。例如,如果智能體活著,那么每一步的獎勵就是+1,如果死了就是0。比方在“打磚塊”游戲里,智能體要盡可能“活”得長一點,保持較高分數。如果得到了負獎勵,智能體會盡可能快速結束游戲。
知道了這一點,我們在研究時就不應該對智能體抱有偏見。在有限的設置中,避免死亡只是智能體的另一種應對方式,它只是為了不那么無聊。所以我們刪除了“done”,將智能體的得分與死亡信號分離開。實際上,我們的確發現,智能體在游戲中避免死亡是因為從游戲開頭總能遇到很多重復場景,它們已經能很好地預測下一步動作了,所以智能體會盡可能保持“生存”。這一發現在此前是被忽略的。
實驗
對48種雅達利環境進行分析的主要目的有三:
在沒有外部獎勵的游戲中,運行一個完全靠好奇心驅動的智能體時究竟發生了什么?
你能讓智能體做出哪些行為?
這些行為中,不同的特征學習變量有哪些影響?
為了回答這些問題,我們從一系列雅達利游戲開始。一種檢驗完全使用好奇心的智能體表現得如何的方法是看它能獲得多少外部獎勵。我們最終得到了8種游戲的平均外部獎勵分數(除去最右的馬里奧):
可以看出,大多數曲線都呈上升趨勢,這說明一個完全靠好奇心驅動的智能體可以通過學習獲得外部獎勵,即使沒有在訓練時運用外部獎勵。
除此之外,我們還在上圖中比較了馬里奧兄弟不同的特征學習表現。更多實驗結果請查看原論文的附錄。
討論
在這項研究中,我們對好奇心驅動的強化學習環境做了大量研究,包括雅達利游戲、超級瑪麗兄弟、虛擬3D、多人乒乓球等。其中對多種不同的特征空間進行了調查,包括隨機特征、像素、逆向動力學以及自動編碼器,并且評估了它們對陌生環境的泛化能力。
我們證明,經過訓練的智能體可以靠好奇心獎勵學習到有用的行為,它們可以不用獎勵玩雅達利游戲;馬里奧可以在沒有獎勵的情況下過11關;可以生成行走和玩雜技的動作;在雙人對戰的乒乓球游戲中可以生成對打模式。但是這也不總是成立的,在某些雅達利游戲中,它們的探索與外部獎勵不符。
另外,這一結果也證明了,在由人類設計的環境中,外部獎勵的目的可能是讓目標物體進行創新。游戲設計者創建的環境正是為了引導用戶。
但是,這里存在一個比較嚴肅的潛在限制是處理隨機動態,如果環境的轉換是隨機的,那么即使有一個完美的動態模型,獎勵也會成為過渡熵,智能體將會尋找熵值較高的過渡轉換。即使環境不是完全隨機的,不了學習算法造成的不可預測性、不良模型類別或局部觀察也會導致同樣問題。
未來,我們將證明我們可以利用無標簽的環境來提高任務的性能。
-
智能體
+關注
關注
1文章
131瀏覽量
10567 -
強化學習
+關注
關注
4文章
266瀏覽量
11213
原文標題:強化學習新角度:智能體玩游戲為什么那么6?因為掛掉太無聊
文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論