電腦首次打敗人類圍棋冠軍意味著什么?

從20世紀90年代開始 , 計算機已連續在國際象棋、跳棋、撲克和電視問答等游戲中打敗人類 。 但是 , 有一種游戲 , 專業的人類選手依舊勝過機器 , 那就是圍棋 。 這項具有2500多年歷史的棋盤游戲非常復雜 , 游戲雙方分別用黑色和白色的棋子圍住盡可能多的區域來戰勝對方 , 這對于計算機來說很難掌握 。 但是人類在圍棋領域唯我獨尊的時代貌似已經結束——谷歌DeepMind的研究人員近日宣稱他們開發出一種復雜的人工智能程序——融合了深度神經網絡技術和搜索技術 , 在歷史上首次打敗了人類的圍棋冠軍 。
去年十月 , DeepMind團隊在倫敦邀請了歐洲圍棋冠軍樊麾與他們的程序AlphaGo對弈 。 比賽是私下進行的 , 只有少數幾個觀眾在場 , 他們在19乘19的網格棋盤上進行比賽 。 AlphaGo在與CrazyStone和Zen等高端的圍棋程序的495場對戰測試中只輸了一場 。 但是 , 與跟其他計算機比賽相比 , 與人類高手的對弈更具挑戰性 , 畢竟職業選手更勝一籌——他們有多年的比賽經驗 , 對于運籌博弈的方法有著某種直覺 。 因此 , AlphaGo以5:0擊敗人類確實很了不起 。
許多人曾預言 , 計算機若想打敗人類圍棋冠軍至少還需要10年時間 。 亞馬遜的著名軟件工程師David Fotland在AlphaGo擊敗人類冠軍后發出感慨 , “這些年來 , 計算機性能的飛躍是出乎意料的 , 而且是空前的 。 ”他也曾開發出一種計算機圍棋程序 , 但他并沒有參與此次AlphaGo的研究工作 。 對于AlphaGo的成功 , David Fotland并沒有驚訝 。
要想了解DeepMind研究人員如何創造出這項令人欽佩的程序 , 我們首先必須意識到下好圍棋對于計算機來說為什么這么難 (如果你并不了解圍棋的規則和技巧 , 下文將給你帶來清晰簡明的解釋) 。 第一 , 圍棋有無數種可能的走法和結果——用研究人員的話來說 , 就是圍棋中可能位置的數量比宇宙中原子的數目還要多 。 DeepMind的共同創始人Demis Hassabis是該項研究發起人之一 , 他將圍棋和象棋做了比較 , 發現在象棋中每一回合平均有20種可能的走法 , 然而在圍棋中 , 每一回合可能的走法卻有將近200種 , 整整多了將近9倍 。 這意味著如果一臺計算機想要探究圍棋中所有可能的走法和結果 , 需要超強大的計算能力 , 曾有科學家甚至覺得完成這項工作幾乎是不可能的 。

電腦首次打敗人類圍棋冠軍意味著什么?



【電腦首次打敗人類圍棋冠軍意味著什么?】JonathanSchaeffer是加拿大阿爾伯塔大學的一名計算機科學家 , 他解釋說 , 計算機很難掌握圍棋的另一個原因是 , 圍棋選手需要大量的知識 , 需要吸取以前的比賽經驗 。 對于象棋 , 你只需輸入少量的信息就可以自己建立一個強大的游戲程序 , 但在圍棋中卻無法做到 。 這是因為 , 在象棋中 , 計算機可以按照程序中預先編寫的規則走棋 , 但在圍棋中使用這種策略是不可行的 。 因為圍棋的每一步走棋是與棋局所呈現的格局息息相關的 , 而不是一系列可以有章可循的邏輯規則 。
DeepMind團隊開發的系統解決了搜索量巨大和知識匱乏的問題 。 在《自然》雜志中(有興趣做深層探索的朋友可以一睹研究報告真容http://www.nature.com/nature/journal/v518/n7540/full/nature14236.html) , 他們表明是通過將搜索技術和深度學習技術結合 , 從而克服了這些困難 。
為了解決知識問題 , 他們利用所謂的深度神經網絡技術——兩個13層深的邏輯關系網絡 , 包括成千上萬個連接點 , 類似于人類大腦中的神經連接 。 研究人員通過兩種方法來訓練這些關系網絡:對于單個關系網絡 , 他們向計算機展示了人類高手對決中超過3000萬種的走法(這可以使系統學到最佳玩家是如何獲勝的);對于兩個關系網絡 , 研究人員讓計算機同自己進行上千次博弈 , 這樣 , 它就能發現新的策略 , 并且自己學習這項游戲 。 這兩種訓練策略使計算機在游戲中可以識別不同的模式 , 并鑒定出如何走棋才能以最大的機會獲勝 。

猜你喜歡