:::
《AI:当机器人写了个剧本》(THEaiTRE 提供)
特别企画 Feature 给麻瓜的AI使用说明书

工具,还是对手?

人工智慧与表演艺术的探索与角力

如果有只鹦鹉能回答任何问题,我将毫不犹豫宣称牠是智慧生物。

——狄德罗(Denis Diderot)

信不信由你,人工智慧(artificial intelligence,AI)与表演艺术的纠葛已超过百年——在捷克剧作家卡雷尔.恰佩克(Karel Čapek)1920 年的作品《罗梭的全能机器人》(Rossum's Universal Robots)中,「机器人」(robot)一词首度被用来描述这种外型似人,拥有与人类相同思考与行动能力的机械;而剧作中机器人原本设计来服务人类,却「觉醒」而导致人类毁灭的设定,也成了后世科幻作品对人工智慧的经典想像:从《2001 太空漫游》的 HAL 9000 到《魔鬼终结者》的天网,机器一旦开始思考,毁灭人类似乎总是它们的首要任务。

如果我们把人类到底多不该存在先放一边,这类故事原型正好让我们一窥大众对 AI 的终极想像:它们能理解回应世界的变动并解决没有标准答案的问题,最终甚至可能演化出自由意志而做出(就人类看来)叛逆的决定。这种能像人一般认知、思考、学习的 AI,称作通用人工智慧(artificial general intelligence,AGI)或强人工智慧(strong AI)。

 黑盒子中的秘密:人工智慧是如何产生「智慧」?

AGI 一直是 AI 研究领域的终极圣杯,现阶段 AGI 离实现也还有段距离(注1);目前日常生活可见的 AI 多是另一种思维的产物:机械无需「真的」有智慧,它们只要能执行所谓的「智慧型任务」就可以了;比如在停车场出入口辨识车牌、在海关验证身分、自动或辅助汽车驾驶等等。这类 AI 被称作应用人工智慧(applied AI)或弱人工智慧(weak AI),基本上只能在人类的明确命令下执行单一任务,于此范畴外,则通常一无所知。尽管如此,弱人工智慧仍不时震惊世人,特别在弈棋这个常跟「智力」联想在一起的领域——比如 1997 年深蓝击败西洋棋王卡斯帕洛夫,或 2016 年 AlphaGo 击败围棋九段李世乭。但不论 AlphaGo 围棋下得再好,不经过重新训练,它并无法直接与人对弈其他棋类,更别说执行下棋以外的任务。

2022 年以前,强弱人工智慧的区别仍相当明显,但随著以 ChatGPT 为首的生成式 AI (generative AI)(注2)进入大众视野,两者边界似乎变得有些模糊——能有模有样回答几乎任何问题的聊天机器人,狄德罗会毫无疑义认为它们有智慧吗?就算我们把「谷歌停职员工声称 AI 有灵魂」或「聊天机器人向纽时专栏作家疯狂示爱」这类惊悚故事只看作花边新闻,2023 年 5 月一则货真价实的研究报告指出:在一项超过 150 万人参与的线上测试中,玩家能在两分钟聊天时间内,正确辨识机器人的准确度只有 60%——只比二选一瞎猜的 50% 机率好上一些。(注3)

即使几乎骗倒人类,许多主流 AI 研究者仍认为 ChatGPT 等一众聊天机器人不过只是能唯妙唯肖模仿人类的「随机鹦鹉」(stochastic parrots)——它们并不理解自己在说什么,只是根据学习过的巨量文本照样造句。然而也有另一派声音主张,真正的「理解」并不存在,「我们都只是随机鹦鹉」(注4),智慧是结果,不是源由——根本上,这就是自柏拉图以来即一直莫衷一是的「二元论」争辩的延续。

有趣的是,近年 AI 发展所仰赖的基础模型,仿似针对这道经典哲学难题的模拟实验:这种称作类神经网路(artificial neural network)(注5 )的演算模型,试图在物理机制上模仿大脑的运作,它们由巨量的神经元与突触构成复杂的多层网路结构,并借由大量训练素材,透过回馈机制增强或抑制突触的强度,来进行「学习」(注6)。2010 年后随著硬体运算能力的成长以及「深度学习」(deep learning)演算法的发明,类神经网路得以突破规模限制,达到接近人脑的复杂程度,从而展现出惊人的理解及回应能力——不过遗憾的是,这不表示数千年来的难题已然得解——就像解剖人脑没法找出智慧的源头,我们也无法透过分析类神经网路得知它们如何(或有没有)产生智慧:神经网路「学会」的知识或思想,分布在数以百亿计的神经元以及数以兆计的突触组合里,分析此等数量级的综合行为,基本上是不可能的任务。

新锐艺评广告图片
广告图片
欢迎加入 PAR付费会员 或 两厅院会员
阅读完整精彩内容!
欢迎加入付费会员阅读此篇内容
立即加入PAR杂志付费会员立即加入PAR杂志付费会员立即加入PAR杂志付费会员
Authors
作者
世界舞台 尽在你手广告图片