如果有隻鸚鵡能回答任何問題,我將毫不猶豫宣稱牠是智慧生物。
——狄德羅(Denis Diderot)
信不信由你,人工智慧(artificial intelligence,AI)與表演藝術的糾葛已超過百年——在捷克劇作家卡雷爾.恰佩克(Karel Čapek)1920 年的作品《羅梭的全能機器人》(Rossum's Universal Robots)中,「機器人」(robot)一詞首度被用來描述這種外型似人,擁有與人類相同思考與行動能力的機械;而劇作中機器人原本設計來服務人類,卻「覺醒」而導致人類毀滅的設定,也成了後世科幻作品對人工智慧的經典想像:從《2001 太空漫遊》的 HAL 9000 到《魔鬼終結者》的天網,機器一旦開始思考,毀滅人類似乎總是它們的首要任務。
如果我們把人類到底多不該存在先放一邊,這類故事原型正好讓我們一窺大眾對 AI 的終極想像:它們能理解回應世界的變動並解決沒有標準答案的問題,最終甚至可能演化出自由意志而做出(就人類看來)叛逆的決定。這種能像人一般認知、思考、學習的 AI,稱作通用人工智慧(artificial general intelligence,AGI)或強人工智慧(strong AI)。
黑盒子中的秘密:人工智慧是如何產生「智慧」?
AGI 一直是 AI 研究領域的終極聖杯,現階段 AGI 離實現也還有段距離(註1);目前日常生活可見的 AI 多是另一種思維的產物:機械無需「真的」有智慧,它們只要能執行所謂的「智慧型任務」就可以了;比如在停車場出入口辨識車牌、在海關驗證身分、自動或輔助汽車駕駛等等。這類 AI 被稱作應用人工智慧(applied AI)或弱人工智慧(weak AI),基本上只能在人類的明確命令下執行單一任務,於此範疇外,則通常一無所知。儘管如此,弱人工智慧仍不時震驚世人,特別在弈棋這個常跟「智力」聯想在一起的領域——比如 1997 年深藍擊敗西洋棋王卡斯帕洛夫,或 2016 年 AlphaGo 擊敗圍棋九段李世乭。但不論 AlphaGo 圍棋下得再好,不經過重新訓練,它並無法直接與人對弈其他棋類,更別說執行下棋以外的任務。
2022 年以前,強弱人工智慧的區別仍相當明顯,但隨著以 ChatGPT 為首的生成式 AI (generative AI)(註2)進入大眾視野,兩者邊界似乎變得有些模糊——能有模有樣回答幾乎任何問題的聊天機器人,狄德羅會毫無疑義認為它們有智慧嗎?就算我們把「谷歌停職員工聲稱 AI 有靈魂」或「聊天機器人向紐時專欄作家瘋狂示愛」這類驚悚故事只看作花邊新聞,2023 年 5 月一則貨真價實的研究報告指出:在一項超過 150 萬人參與的線上測試中,玩家能在兩分鐘聊天時間內,正確辨識機器人的準確度只有 60%——只比二選一瞎猜的 50% 機率好上一些。(註3)
即使幾乎騙倒人類,許多主流 AI 研究者仍認為 ChatGPT 等一眾聊天機器人不過只是能唯妙唯肖模仿人類的「隨機鸚鵡」(stochastic parrots)——它們並不理解自己在說什麼,只是根據學習過的巨量文本照樣造句。然而也有另一派聲音主張,真正的「理解」並不存在,「我們都只是隨機鸚鵡」(註4),智慧是結果,不是源由——根本上,這就是自柏拉圖以來即一直莫衷一是的「二元論」爭辯的延續。
有趣的是,近年 AI 發展所仰賴的基礎模型,仿似針對這道經典哲學難題的模擬實驗:這種稱作類神經網路(artificial neural network)(註5 )的演算模型,試圖在物理機制上模仿大腦的運作,它們由巨量的神經元與突觸構成複雜的多層網路結構,並藉由大量訓練素材,透過回饋機制增強或抑制突觸的強度,來進行「學習」(註6)。2010 年後隨著硬體運算能力的成長以及「深度學習」(deep learning)演算法的發明,類神經網路得以突破規模限制,達到接近人腦的複雜程度,從而展現出驚人的理解及回應能力——不過遺憾的是,這不表示數千年來的難題已然得解——就像解剖人腦沒法找出智慧的源頭,我們也無法透過分析類神經網路得知它們如何(或有沒有)產生智慧:神經網路「學會」的知識或思想,分布在數以百億計的神經元以及數以兆計的突觸組合裡,分析此等數量級的綜合行為,基本上是不可能的任務。