在象棋或是圍棋等遊戲方面,人工智慧(Artificial Intelligence, AI)的表現已經證實遠超過世界上最好的旗手。但如果涉及與人類合作,這些超強 AI 能夠和人類和平共處嗎?
麻省理工學院林肯實驗室(MIT Lincoln Laboratory)的研究人員試圖釐清人類和 AI 玩合作紙牌遊戲 Hanabi 時的表現如何。該 AI 模型經過訓練以適應與以前從未見過的隊友一起玩。在他們所設計的單盲實驗中,參加者玩了兩個系列的遊戲:一個是由 AI 作為他們的隊友 ; 另一個則是單純基於規則所撰寫的演算法(換句話說,是一個預定方式進行遊玩的程式)作為他們的隊友。
這些 AI 是透過強化學習(Reinforcement Learning)技術開發的一個演算法,透過一次又一次地嘗試來發現哪些行動會產生最大的「獎勵」,正是這項技術造就了舉世無雙的象棋和圍棋 AI 選手。與單純基於規則所撰寫的演算法不同,這些 AI 並不會遵循 if/then 的指令來活動。
沒想到研究結果令研究人員感到驚訝。
結果顯示和 AI 隊友合作的得分相較於和基於規則所撰寫的演算法隊友合作的得分之間並不存在顯著差異。換句話說,超強 AI 的表現並不如預期的好。除此之外,參加研究的人類更表示他們討厭和 AI 隊友一起玩(然而這些參加研究的人類並不知道他們的隊友是 AI),人類認為這些超強隊友不可預測、不可靠和不可信的。
研究人員指出,這項研究中使用的 AI 並不是為了人類的偏好而開發的,與大多數的 AI 一樣,該模型旨在盡可能獲得最高的分數,而追求最大獎勵的設計可能讓 AI 的動作與團隊不一致。這種對 AI 與團隊動作不一致的現象可以從 2016 年 DeepMind 的 AlphaGo 中找到一絲線索:2016 年 DeepMind 的 AlphaGo 首次擊敗世界上最好的圍棋選手時,AlphaGo 最受讚譽的棋步之一是第 2 局的第 37 步,這一棋步非常不尋常,以至於人類評論員認為這是一個錯誤。然而後來的分析表明此舉實際上是經過精心計算的。儘管這些高瞻遠矚的動作後續可能受到稱讚,但在團隊環境中可能不太容易受隊友歡迎:在這些緊密合作的團隊中,奇怪或看似不合邏輯的舉動容易破壞人類對 AI 隊友的信任,也削弱了人類想要與 AI 合作的程度,尤其是動作的當下看不出任何潛在回報的時候。
這樣的結果揭櫫了一個重要的問題:表現優異的 AI 和受人類信任的 AI 之間仍然存在差異。試想未來如果人類必須和 AI 進行真正的挑戰,例如防禦導彈或是複雜的手術時,會發生什麼狀況呢?
MIT 研究員 Allen 表示,如果 AI 研究人員不關注人類的主觀偏好問題,那我們就不會創造出人類真正想要使用的 AI。而這個涉及與人類協作的問題,遠本 AI 本身複雜且困難。
為此美國空軍 AI 加速器、麻省理工學院持續合作,希望能強化 AI 在團隊協作的過程解釋其行為的能力,此舉能讓人類了解 AI 的行為模式與目的,期望能強化人類對 AI 的信任,更促進未來 AI 與人類團隊協作的發展。
參考資料:https://techxplore.com/news/2021-10-artificial-intelligence-smart.html