(文章來源:教育新聞網)
Facebook AI研究人員的一個團隊最近開發了一種算法,即“其他游戲(OP)”,該算法構建的策略可以使未經其他代理商訓練的代理商獲得高回報(零鏡頭協調的一種形式)。如果要求不高,這項工作可以大大提高自動駕駛汽車的性能,自動駕駛汽車利用零擊協調在道路上的障礙物和駕駛員周圍導航。
研究人員研究了馬爾可夫游戲,即僅依賴于以一種或另一種方式總結游戲歷史的變量的游戲。(例如,變量可以是重復游戲中的當前游戲,也可以是最近游戲序列的任何解釋。)游戲是部分可觀察的,并且其玩家(由AI驅動的特工)共享以聯合獎勵為條件的獎勵他們采取的行動和游戲狀態。因此,目標是使期望收益最大化。
在實驗中,該團隊將OP(它使用問題描述來協調代理人而不是動作標簽)應用于一種杠桿游戲,其中要求代理人從10個杠桿中選擇一個來與未知的陌生人進行協調。他們說,在訓練階段和測試時間,OP代理與其他OP代理配對時都執行零擊協調。相比之下,互相競爭以發現策略的自我扮演代理在訓練階段獲得了較高的回報,但未能與其他獨立訓練的自我扮演代理進行協調。
接下來,研究人員將OP應用于合作式紙牌游戲Hanabi。在哈納比(Hanabi),從總共有五張牌的一手牌中發給玩家。每回合,他們必須(1)在另一位玩家的手上露出紙牌的花色或號碼,(2)丟棄紙牌,或(3)玩一張尚未打過的花色為“ 1”的紙牌或下一順序號的西裝是已被播放。我們的目標是通過每套打出的最高張牌的價值來獲得最高分-這項任務比聽起來要更具挑戰性。公開有關卡的信息消耗了八個可用信息令牌之一,只能通過丟棄或成功打出“ 5”的任何西裝來補充。同時,打牌失敗會消耗三種可用之一融合令牌。
根據研究人員的說法,OP改善了交叉游戲,從而消除了自游戲中出現的“不人道”慣例,這對于人類來說通常是很難(或不可能)理解的。(例如,在沒有OP的情況下,自打特工可能會提示某種顏色,以表示它丟棄了一張牌,而其伙伴則將此解釋為在玩另一張牌。)
(責任編輯:fqj)
-
AI
+關注
關注
87文章
30146瀏覽量
268421 -
Facebook
+關注
關注
3文章
1429瀏覽量
54650
發布評論請先 登錄
相關推薦
評論