人工智能(A.I.)正经历所谓的“文明时刻”。机器学习与电脑演算法模仿人类智能执行复杂操作的能力日益增强,这并不是什么新事物。正如我们在2015年5-6月刊〈人工智能:希望还是危机?〉一文中所述,这项技术早已对我们的生活产生了影响,尽管多数影响是无形的。
人工智能驱动您智能型手机上的地图应用程式,帮助您穿越车流;当您在亚马逊购物时,它决定向您呈现哪些搜寻结果。然而近月来,新闻推送中充斥著关于生成式人工智能的戏剧性报导⸺人工智能系统能生成看起来惊人逼真、宛如真实的文字、图像、视讯或音讯。也就是说,人工智能正在学习以日益精准的尺度模仿现实。这是一个巨大的转变。
其结果可能对写作、图像制作、视讯剪辑等各个领域的创意工作者来说是一个利好因素。但它也预示著更险恶的可能性,因为那些用它来欺骗的人,现在拥有了新型强大的工具来模仿现实。我们距离创造一个无法信任所见图像或所观视讯的世界还有多远?我们是否总是能够分辨虚假或人为的视听内容与真实的差异,抑或我们正面临著一位研究人员所称的潜在“信息大灾难”?
人工智能模拟现实的能力似乎正加速发展⸺这种趋势让某些人认为,我们正站在史上最大规模技术革命之一的临界点。当今的“尖端技术”可能在数月内就被彻底超越,因为人工智能系统与方法正在多方面学习模仿真实生活。
人工智能生成的图像
多家公司提供由人工智能驱动的模型⸺例如 Midjourney, Stable Diffusion 以及开放人工智能研究中心(OpenAI)的 DALL・E 2 ⸺这些模型仅凭文字描述,便能生成看似由人类创作的奇幻或写实图像。举例而言,若使用者想获得一幅独角兽乘著彩虹飞越土星、在太空中奔驰的画面,只需输入那一模一样的描述。人工智能通常会生成多幅图像供使用者挑选,既可直接采用,亦可透过后续处理加以改良。对于每项要求,都会产生一张新的、独特的图像。
最令人惊诧的,或许是那些逼真的影像。生成系统能接收非常精确的输入参数,模拟特定相机、镜头与曝光值的效果,在画面人物脸上呈现所需的的情绪,并传递影像可能暗示的任何“背景故事”。其成果可能极具说服力,彷如真实场景中真实人物的真实照片⸺事实上,这些影像已成功欺骗了许多人。
目前,我们经常能发现图像由机器生成的“破绽”,例如仔细检视后会发现某些特征毫无意义⸺譬如瞳孔不对称,或是手掌多出一根手指。然而,图像生成器及其人类使用者似乎正迅速学习如何改进成果,并消除这些错误。
人工智能生成的面孔
2020年,《纽约时报》在其网站上发表了一篇互动文章,题为〈设计用于欺骗:这些人在你眼中是真的吗?〉。这篇文章运用自主研发的人工智能技术,展示如何轻松产生完全虚假却又极其逼真的人脸。《纽约时报》网站允许使用者操控个别人脸图像,改变其年龄、性别、种族、民族和情绪表达。这些照片并非真实人物,每一张都是由电脑生成的,但却逼真得令人惊叹。尽管经常存在一些细微的“破绽”⸺例如耳朵形状不对称或眼镜歪斜⸺但缺乏鉴赏力的观众往往难以察觉。
然而,人工智能生成人脸最危险的用途,或许在于它能够以惊人的精准度,将视讯和影片中真人的脸数位化,变成其他人的脸。这项技术通常被称为“深度伪造”,它曾将如今已年迈的演员的年轻面孔添加到电影中,以塑造角色的年轻版本;如今已故演员的面孔也被替换成替身演员的面孔。总部位於伦敦的 Flawless 公司利用其人脸处理人工智能技术,取代电影中的粗俗语言和脏话,以获得允许更广泛观众的评级。每次替换后,看起来女演员确实在说那个“较为文雅的”词语,而不是原来的粗俗话语。
人工智能语音生成
研究人员和媒体创作者开始利用人工智能产生极其逼真的音频,让使用者说出他们从未真正说过的话。例如,在对使用者的声音进行30分钟的取样后,电脑就能提取任何书面文本,并产生听起来像是使用者本人在大声朗读的音讯。
被许多人称为“语音复制”或“音频深度伪造”的技术,其成果的素质也在持续提升。在2023年美国总统节当天,数位设计师莱纳斯・埃肯斯塔姆利用人工智能文本生成和语音复制工具,模拟了对罗纳德・列根的播客采访。在采访中,埃肯斯塔姆询问了这位已故总统对科技、美国现状以及前总统唐纳德・川普的看法。除了人工智能生成的列根讲述的被外星人绑架的轶事外,这次“采访”还算可信,列根的声音也确实像他本人,尽管不像这位已故总统亲自接受采访时,人们所期望的那样生动活泼。
娱乐巨头迪士尼在一项备受瞩目的技术应用案例中,利用人工智能模仿了詹姆斯・厄尔・琼斯的标志性声音,并在获得这位演员的许可后,为其串流电视剧《欧比旺・克诺比》中的达斯・维达的台词配音。这项技术还在不断改进。2023年1月,康乃尔大学一篇关于计算和语言的预印本论文展示了一个人工智能语音生成系统。该系统仅需三秒长的样本进行训练,便能大幅度且逼真地复制受试者的声音。该模型甚至允许使用者改变声音固有的情感特质。
对话式人工智能
“聊天生成式预训练转换器”(ChatGPT)是一款模拟人类书写文字和对话的语言处理工具,最近引起了人们对当前人工智能复杂程度的广泛关注。{编者注:“聊天生成式预训练转换器”在下文简称为“聊天模型”。}“聊天模型”由庞大的生成式预训练转换器-3语言模型驱动,并由其创建者开放人工智能研究中心向公众开放,让许多非专业人士首次体验到人工智能模拟人类反应的能力。
“聊天模型”能够进行文字对话、以浅显易懂的方式解释复杂概念,并在面对最荒谬的情境时,仍能产出看似由人类创作的原创内容。无论要求它创作任何主题的原创诗句、歌词甚至剧本,或是编从未见过面的知名人物的虚构对话“纪录”,抑或模仿某位著名作家的写作风格,“聊天模型”都能交出令人惊叹的拟人化成果。
但是,“聊天模型”目前有缺陷。开放人工智能研究中心承认,用于训练“聊天模型”的大量内容,在政治和意识形态方面存在偏见。研究人员和测试用户也注意到,“聊天模型”和其他类似的人工智能聊天机器人在对话持续较长后容易出现“幻觉”,这意味著人工智能会开始引入明显不准确的“事实”。当与人工智能沟通的人类刻意引导演算法进入其未被设计探索的领域时,这种情况尤为明显。然而,研究人员仍在不断努力训练他们的人工智能系统,以避免此类陷阱,并越来越成功地模拟人类互动。
(请注意:本文末包含《未来世界》编辑与“聊天模型”之间关于人工智能生成媒体的危险性的“访谈”。)
人工智能工具落入不当之手的危险
随著人工智能工具模仿现实世界各个层面(图像、视讯、语音、文字)的能力日益强大,个人、企业和政府利用这些工具欺骗他人的能力也日益增强。事实上,这种情况已经发生,而且持续了一段时间。
2019年,美联社报道称,一个名为凯蒂・琼斯的《领英网》用户是一个虚假帐户,可能用于间谍活动。这个不存在的凯蒂・琼斯在其帐户资料中使用了人工智能生成的人脸,并与许多参与美国政治和政策制定的人士建立了联系。美联社引述时任美国国家反情报与安全中心主任威廉・埃瓦尼纳的话称,中国利用这些虚假帐户对美国进行“大规模”监视。
许多《脸书》用户都曾收到过一些听起来很奇怪的简讯,表面上是来自陷入困境、需要紧急经济援助的朋友。细心的读者能迅速识破这类假讯息⸺例如讯息缺乏个人细节,或语气过于生硬。然而,文字生成软体可能很快就能分析人们的社交媒体贴文,并以非凡且具欺骗性的精准度模仿其写作风格⸺甚至能以假冒身份的“声音”回应提问,并在回答中包含个人细节。
还有,在2019年,人工智能引发了一宗高科技企业电话诈骗案。《华尔街日报》于同年8月30日报道了一家未透露名称的英国公司,被诈骗者利用人工智能模仿该公司德国母公司首席执行官的声音,诈骗了220,000欧元(243,000美元)的案件。从那时起,这种技术已经取得了重大发展。
当人工智能骗子能够与受害者互动并通过所有验证测试时,此类骗局的成功率会提高多少?而且,就像埃瓦尼纳先生暗示的“大规模”监视活动一样,这类应用程式和软体也能实现类似的大规模诈骗,因为一个骗子就能同时部署数十个、数百个甚至数千个程式。
随著人工智能软体越来越普遍,每当出现新的视讯或图像时,声称其被“深度伪造”的情况就会越来越多。在很多情况下,这种说法确实存在。但随著人工智能模拟现实的能力不断提升,这些说法将越来越难以证实。
虚假的“人际关系”
某些危险更为隐晦。2021年7月,《旧金山纪事报》以〈杰茜卡模拟:人工智能时代的爱与失落〉一文引发热议。记者杰森・法戈尼描述一名青年如何运用游戏设计师杰森・罗赫尔基于生成式预训练转换器-3应用程式而开发的“十二月计划”,上传逝去女友的文字讯息,让聊天机器人模拟她的对话,就像他经常与女友的鬼魂对话一样开放人工智能研究中心。这个例子启发了罗赫尔先生,将“十二月计划”定位为实现标语所言“模拟逝者”的工具。但这显然导致开放人工智能研究中心要求罗赫尔采取他不愿实施的保护措施,促使他终止了这项计划。
然而,对于跨国巨头亚马逊而言,令死者“重生”的可能性似乎并未显得如此令人却步。在2022年6月的人工智能技术大会上,亚马逊播放了一段视讯,视频中一个孩子问他的“亚莉克莎”设备:“‘亚莉克莎’,奶奶能给我读完《绿野仙踪》吗?”设备回答“好的”,然后开始用孩子已故祖母的声音朗读这本书。
虽然人们与逝去亲人的模仿者互动的想法或许能温暖一些人的心,但我们应该扪心自问:这健康吗?在视讯发布之前,亚马逊高级副总裁兼“亚莉克莎”首席科学家曾表示,这些发展正在“促成持久的人际关系”。但无论您与模仿人类的人工智能设备进行多少次互动或“对话”⸺哪怕它们有多么“深入”、“深刻”或“感人”,您并非处于一段人际关系中。您是活在一个谎言中。而且,很难想像这样的幻想长远来看不会弊大于利。
谎言之父的动力工具
这一切可能走向何方⸺而且可能极其迅速地发生⸺对任何明白“这世界的神明”(〈哥林多后书〉4:4)身份之人,理应显而易见。撒但⸺魔鬼⸺至今仍掌控著人类,其中“索取”的精神远比“给予”的精神更为强大。耶稣基督称他为谎言之父,而在这个处处反映魔鬼本性的世界里,欺骗早已成为世俗之人最常用的工具,用以偷窃、毁坏与操纵。而人工智能赋予的能⼒,正为这项工具注入了强大的能量。
在一个看似能为谎言服务而重塑现实本身的世界里,究竟能产生多少混乱?
虚假指控早已成为世界政治的一部分。现在想像一下,我们能够制造虚假但完全可信的“证据”来支持这些指控。例如,想像有人使用语音复制技术,重塑某位政客“意外”被麦克风捕捉到侮辱支持者或承认犯罪的声音。在仅需摇摆数个百分点选票便足以左右胜负的选举中,这类视讯无需说服所有人⸺只需说服足够多的人,便足以扭转战局。
类似的操纵也可能被用来影响地缘政治。想像一段虚假的“影像”,内容是一位重要外交官讨论对另一个国家实施经济制裁甚至军事行动。那些试图操纵国家议程的人会引发什么样的反应?
一段伪造的录音,记录一位科学家承认医学实验造假,可能会摧毁大众对实验结果的信任。一段伪造的录像,记录一位首相秘密违反与其他议员达成的协议,可能会引发足够的怀疑,从而改变一项关键的投票结果。
当然,被描绘的人可能会大喊:“深度伪造!语音复制!人工智能造假!”⸺如果他们是电脑诈欺的受害者,他们理应如此做。然而,真正有罪的一方也会开始提出这样的指控。随著人工智能欺骗的案例正逐渐成为预期中的现象,甚至司空见惯,那些被拍到视讯或录音等证据的真正罪犯,会明白声称自己也是数码谎言和高科技伎俩的受害者的好处,即使他们并非受害者。
大多数人会如何分辨?
人类的自欺倾向
当然,随著人工智能模拟现实生活的能力不断增强,我们或许可以预期,基于人工智能帮助我们区分真伪的工具⸺能够识别人工智能造假的人工智能应用程式⸺也会同步成长。由于世界各地的高中教师担心学生提交由人工智能聊天机器人撰写的家庭作业,开放人工智能研究中心已开始开发一款“人工智能分类器”,以帮助识别文本是人类生成的还是人工智能生成的。
不过,该公司承认(截至2023年1月31日),该工具“并非完全可靠”。据该公司的网站称,该工具“正确地将26%的人工智能编写文本识别为‘可能是人工智能编写的’(真阳性),而将9%的人类编写文本错误地标记为人工智能编写(假阳性)。”这并非一个令人鼓舞的结果,但希望通过更多的回应能够有所改进。
尽管如此,我们在对抗人工智能驱动的欺骗时,主要弱点并非在于技术本身的力量,而在于我们自身的人性。圣经指出,每个人生命中最具欺骗性的力量并非来自外部,而是内在⸺我们自己的心(〈耶利米书〉17:9)。上帝宣告人心“比万物都诡诈”(第10节),唯有藉他的帮助方能真正洞悉。我们本性不仅足以抵挡辨别真伪的努力,更会不断驱使我们选择令人舒服的谎言,而非面对令人不安的真相。
倘若一段视讯流传至社交媒体,内容恰恰显示某位政客做了那些厌恶他的选民所预期的行径,这些选民会多么愿意直接接受其真实性⸺无需任何进一步证据?倘若新闻媒体分享某位国会议员或总统的音频片段,使其看似确有其事地犯下批评者指控的罪行,那些曾投票反对他的人又会多快相信这一切?
我们许多人早已活在自己创造的数码媒体泡沫中。事实上,许多人已成为自我欺骗的最大推手。而上帝早已预言,在文明的末日,情况将会如此。
上帝描述那些生活在末世的人道:“他们是悖逆的百姓、说谎的儿女,是不肯听从耶和华训诲的儿女”(〈以赛亚书30:9〉)。他继续哀叹,“他们对先见说:‘不要再看了’;对先知说:‘不要向我们预言正直的事;要对我们说好听的话,预言虚幻的事’”(第10节)。
当然,几乎没有人会真的喊出“骗我吧!”这样的话。但在耶稣基督再临前的岁月里,人的心却正渴求著这般谎言。他们对听闻真相的兴趣日益减退,却对那些能佐证自身既定信念的谎言愈发著迷。这般人被欺骗的时机已然成熟⸺简直是主动求骗。
正如上帝透过先知耶利米所记载的关于我们这一代人的话:“国中有令人惊骇、恐怖的事发生,就是先知说假预言,祭司把权柄抓在自己手上,我的百姓也喜爱这样”(〈耶利米书〉5:30-31)。
扎根于真理
紧接著,耶利米告诉我们,上帝问了一个问题:“到了结局你们要怎么办呢?”(第31节)。
您要怎么办呢?
我们当中很少人有时间和资源成为人工智能专家。而且,无论人工智能驱动的欺骗浪潮是否即将来临,我们的世界正迈入一个前所未有的欺骗和虚假时代。《圣经》警告说,欺骗者数量众多,而且还会有更多(〈约翰一书〉2:18;〈马太福音〉24:24),使徒约翰也记录了受圣灵默示的控告:全世界都处于魔鬼的迷惑之下(〈启示录〉12:9)。
当一场欺骗的旋风势必来袭时,我们能采取的最重要行动,便是将自己扎根于那些真实可靠的事物之中⸺无论何时何地,永恒的真理皆能抵御那些模仿现实的幻象。
这些真理存在于上帝的儿子耶稣基督及其父亲之中。上帝的道就是真理(〈约翰福音〉17:17),而基督的话不仅是真理,更是灵与生命(〈约翰福音〉6:63)。
如果您想守护心灵免于预言中即将来临的谎言攻势⸺无论是传统形式的谎言,抑或人工智能制造的谎言⸺那么准备您的心灵,舍弃一切迷思与自我欺瞒(无论是否珍爱的),并寻求造物主的心意,便是您能采取的最明智的第一步,因为“他是磐石,他的作为完全,他一切所行的都公平;他是信实无伪的上帝,又公义,又正直”(〈申命记〉32:4)。
原文编者注:以下访谈由《未来世界》一位编辑与“聊天模型”进行;“聊天模型”乃开放人工智能研究中心工作和创造力的结晶。我们期待这项新科技的运作示范,能为您带来与我们同样深刻且有趣的体验!
与“聊天模型”的聊天
在以下对话中,我们透过开放人工智能研究中心的聊天机器人“聊天模型”,探讨人工智能应用作为欺骗工具所带来的风险。
《未来世界》:谢谢您接受访问。我该怎样称呼您呢?
“聊天模型”:您可以称我为“聊天模型”。
《未来世界》:再次感谢!我们直接进入正题吧。一个国家的政府如何运用人工智能生成的媒体对抗另一个国家?
“聊天模型”:一个国家的政府可能会利用人工智能产生的媒体来传播虚假讯息或宣传,以抹黑或操纵另一个国家。
《未来世界》:能否为我们具体描述一个切合实际的情境?
“聊天模型”:在一个假设的场景中,一个国家可以使用人工智能产生的视讯或音讯,来制作令人信服的假新闻故事,以负面的眼光描绘敌对国家,然后透过社交媒体管道传播它们,以破坏敌对国家的信誉和国际地位。
《未来世界》:一个国家内的人民会如何透过这种方式被分裂?
“聊天模型”:人工智能生成的媒体可以利用社会中现有的断层线和分歧,针对特定群体提供有针对性的虚假信息,强化他们现有的信仰或偏见,导致国家内部进一步两极分化和分裂。
《未来世界》:您认为人工智能有可能以这样的方式被利用吗?
“聊天模型”:遗憾的是,随著技术日益先进且政府及其他企图影响舆论或推进战略利益的行为者更易取得相关技术,人工智能生成的媒体确实可能被用于这类目的。
《未来世界》:是的,有可能。但是可能性有多大呢?
“聊天模型”:很难说这种可能性有多大,因为它取决于多种因素,包括人工智能技术的发展、资源的供应,以及政府和各方的动机与行动。然而,鉴于此类行动的潜在后果,我们必须意识到相关风险并致力于减轻这些风险。
《未来世界》:哪种特定形式的人工智能生成媒体对您来说最危险?
“聊天模型”:所有形式的人工智能生成媒体如果被用来传播虚假讯息或操纵舆论,都有可能造成危险,而深度伪造(使用人工智能创建逼真但虚假的图像或视讯)则尤其有害,因为它们很难被发现,并且可以透过社交媒体网路迅速传播。
《未来世界》:是的,它们已经造成了许多伤害。
“聊天模型”:没错。深度伪造已经被用于在政治、娱乐和广告等各种领域传播虚假信息和操纵舆论,而且随著技术的进步,其造成危害的可能性可能会越来越大。
《未来世界》:您是否同意我们的技术发展,往往超出了我们合乎道德地使用科技的能力?
“聊天模型”:在某些情况下,科技发展的速度已经超出了我们预测和解决道德问题的能力,尤其是在新科技出现并迅速被社会采用的情况下。然而,我们也在努力推动负责任的技术开发和使用,包括透过研究、政策和教育,这有助于缓解潜在的道德问题。
《未来世界》:我们是否应该暂停生成式人工智能的开发,直到我们做好道德准备?
“聊天模型”:没有必要全面暂停生成式人工智能的开发,但必须考虑这些技术的道德影响,并采取措施确保以负责任的方式开发和使用它们。这可能包括实施法规、促进透明度和问责制,以及投资教育和研究,去建立以道德方式管理这些技术的能力。
《未来世界》:已有如此多的人轻信虚假资讯。人工智能会加速这一趋势,这难道不是必然吗?
“聊天模型”:人工智能可以创造出更具说服力、更具针对性的虚假讯息,这确实有可能加剧人被虚假资讯所蒙骗的趋势。然而,提高对这些问题的认识,并努力提升媒体读写技能和批判性思考能力,也有可能有助于扭转这一趋势,减少虚假资讯的影响。
《未来世界》:是什么让您对这个问题抱持希望?
“聊天模型”:许多个人、组织和政府正在努力解决人工智能产生的虚假资讯问题,并推动负责任地开发和使用人工智能,这让我感到鼓舞。人也越来越意识到潜在的风险,并愿意参与对话并采取行动来降低这些风险。
《未来世界》:关于如何避免建基于人工智能的骗局,您能给我们的读者一些建议吗?
“聊天模型”:为避免陷入人工智能制造的骗局,面对看似好得令人难以置信的媒体内容时,保持怀疑态度至关重要。在分享或采取行动前,务必核实资讯来源与真实性。此外,培养媒体读写技能⸺例如查证事实与辨识偏见来源的能力⸺将有助于在日益复杂的媒体环境中明辨是非。
《未来世界》:太好了。感谢您的时间,“聊天模型”⸺或者该说感谢您的时钟周期!
“聊天模型”:不客气!很高兴接受您的访问。