AlphaGo於2014年開始由英國倫敦Google DeepMind開發的人工智能圍棋軟體,2015年擊敗職業棋士樊麾二段,2016年3月以4:1擊敗世界冠軍李世乭九段,2017年3:0擊敗當時世界排名第一的柯潔九段。圍棋被公認為最困難的遊戲(?)之一,是一對一的對決,與其他遊戲相比,沒有像類卡牌遊戲一樣需要運氣成分。這也象徵在一定的規則之下AI已經可以完全超越人類。
AlphaGo之前的圍棋AI都採用蒙地卡羅樹搜尋(Monte Carlo tree search),這方法在9路圍棋中可以達到段位水平,但19路距離職業最高水平還有一條很長的道路。
AlphaGo團隊除了採用蒙地卡羅之外又開發了兩種方式對局面進行研判:
策略網路(Policy Network):任務是下一步該如何走,基於AI所認知的圍棋觀,提示次一手,以及其後變化的候補手。評價網路(Value Network):評估局面,對當前的局面與其他所有的變化圖做出評估,給予正確的評估值(勝率)。
王銘琬《棋士與AI》p.58
令人吃驚的AlphaGo
1. 圍棋AI的運算主要是看GPU,因此強大的GPU是造成AI強大的地方,而不是CPU。
2. 圍棋AI面對超大型對殺,有時候計算不如頂尖職業棋士(比例大約10盤有1盤)。但判斷局勢誰比較好的部分遠超人類。
3. AlphaGo過去的訓練方式是告訴它規則,並輸入大量人類棋譜,之後再相互對陣從錯誤中學習招式。後來Google deepmind公司拋開AlphaGo,開發AlphaGo Zero,只告訴它規則之後不看人類棋譜,讓他深度學習,硬體使用2000個TPU訓練,3天達到2016年3月AlphaGo水準,之後遠超AlphaGo。
AlphaGo作者之一黃士傑博士認為短期內(至少10年後)有達到有思維的人工智慧是不可能的(取自2017/11/10黃士傑博士於海峰棋院分享會內容),那如果像演化借鑑進行全腦仿真呢?
全腦仿真(上傳)會以掃描和仔細模仿生物腦的計算結構,來產生智慧軟體。這方法不需要完全了解人類認知怎麼運作,或是如何設計出人工智慧。我們只需要了解腦部基本運算元素的低階功能特性。
因此,這途徑展現了一種從自然獲得啟發的有限範例:整顆照抄。要達到全腦仿真首先須完成幾項步驟。
1.對某一人腦做足夠詳細的掃描,機器便可將組織剖為薄片,並由另一臺機器掃描。此時可能會使用多種染色,來標示腦中不同結構和化學屬性
2.掃描器的原始數據會送進電腦做自動影像處理,以重建在原本腦中形成認知的3D神經網絡,生成的圖像與不同類型的神經元或不同神經元素的神經運算模型檔案庫合併。
3.上一步得到的神經運算架構已在一臺效率強大的電腦上運作。如果徹底成功的話,結果就是原本智慧的數位複製,具有完整個記憶和人格。
全腦仿真需要什麼技術?
1.掃描:需要解析度和偵測相關性質能力皆充足的高通算顯微鏡。
2.轉譯:自動影像分析將原始掃描數據化為轉譯過的3D神經運算元素模型。
3.模擬:夠強大的硬體將產生的運算結構複製出來。
顯然達到人類詮腦仿真,還要即大量的技術進展。舉例來說,顯微技術不能只有足夠的解析度,還要有足夠的通量。為了產生可見的相關細節,大腦皮質組織的準備以及染色工作都要新方法。神經運算的資料庫必須大幅擴充,而自動影像處理以及掃描轉譯,也都需要大幅進步才行。
Nick Bostrom《超智慧》p.46-51
因此人工智慧要全面取代人類的日子還有一段不短的路程,那在這段時間內我們要用什麼態度反思人工智能與人類的關係呢?
後面幾章作者同樣以圍棋為例:
從中發現人類再怎麼努力也無法達到完美的結果,因此隨著AI的進化,也引發人類智慧為何的討論。王銘琬認為人類的智慧為:勇敢的正視自身的矛盾,在矛盾之中找出該走的路。