跳转到主要内容
不要靠(人工智能)谎言生活

人工智能(A.I.)正经历的“文明刻”。机器学电脑演算法模仿人类智能行复操作的能力日益增强,并不是什么新事物。正如我在2015年5-6月刊〈人工智能:希望是危机?〉一文中所述,这项早已的生活生了影响,尽管多数影响是无形的。

人工智能驱动智能型手机上的地图应用程式,帮助您穿越流;当您在亚马逊购,它决定向您呈些搜寻结果。然而近月来,新推送中充斥著关于生成式人工智能戏剧报导人工智能系能生成看起来惊人逼真、宛如真的文字、像、视讯或音。也就是,人工智能正在学以日益精准的尺度模仿现实是一个巨大的转变

果可能写作、像制作、视讯等各个域的意工作者来是一个利好因素。但它也示著更险恶的可能性,因那些用它来欺的人,有了新型强大的工具来模仿现实。我距离造一个无法信任所见图像或所观视讯的世界有多?我是否是能够分辨虚假或人听内容与真的差异,抑或我正面著一位研究人所称的潜在“信息大灾”?

人工智能模拟现实的能力似乎正加速趋势让某些人认为,我正站在史上最大模技革命之一的界点。当今的“尖端技”可能在数月内就被底超越,因人工智能系与方法正在多方面学模仿真生活。

人工智能生成的

多家公司提供由人工智能驱动的模型例如 Midjourney, Stable Diffusion 以及开放人工智能研究中心(OpenAI)的 DALLE 2 些模型凭文字描述,便能生成看似由人类作的奇幻或写实图像。例而言,若使用者想得一幅独角乘著彩虹越土星、在太空中奔的画面,只需入那一模一的描述。人工智能通常会生成多幅像供使用者挑,既可直接采用,亦可透续处理加以改良。于每要求,都会生一新的、独特的像。

最令人惊的,或是那些逼真的影像。生成系能接收非常精确的入参数,模特定相机、镜头与曝光的效果,在画面人物上呈所需的的情,并传递影像可能暗示的任何“背景故事”。其成果可能极具服力,彷如真实场景中真人物的真照片上,些影像已成功欺多人。

目前,我们经常能发现图像由机器生成的“破”,例如仔细检视后会发现某些特征毫无意譬如瞳孔不称,或是手掌多出一根手指。然而,像生成器及其人类使用者似乎正迅速学如何改成果,并消除错误

人工智能生成的面孔

2020年,《纽约时报》在其网站上表了一篇互文章,题为设计用于欺些人在你眼中是真的?〉。篇文章运用自主研的人工智能技,展示如何生完全虚假却又极其逼真的人。《纽约时报》网站允使用者操控个别人脸图像,改其年、性别、种族、民族和情表达。些照片并非真人物,每一都是由电脑生成的,但却逼真得令人惊。尽管常存在一些微的“破例如耳朵形状不称或眼歪斜但缺乏鉴赏力的往往以察

然而,人工智能生成人最危的用途,或在于它能够以惊人的精准度,将视讯和影片中真人的数位化,其他人的这项通常被称“深度造”,它曾将如今已年迈的演的年面孔添加到影中,以塑造角色的年版本;如今已故演的面孔也被替成替身演的面孔。部位於敦的 Flawless 公司利用其人脸处理人工智能技,取代影中的粗俗言和脏话,以得允更广泛评级。每次替后,看起来女演那个“较为文雅的”词语,而不是原来的粗俗话语

人工智能音生成

研究人和媒体作者开始利用人工智能生极其逼真的音使用者出他从未真正说过。例如,在使用者的声音行30分的取后,电脑就能提取任何面文本,并生听起来像是使用者本人在大声朗的音

多人称音复制”或“音深度造”的技,其成果的素也在持提升。在2023年美国总统节当天,数位设计师斯・埃肯斯塔姆利用人工智能文本生成和音复制工具,模对罗纳德・列根的播客采访。在采访中,埃肯斯塔姆询问位已故总统对科技、美国状以及前总统德・川普的看法。除了人工智能生成的列根述的被外星人架的事外,次“采访算可信,列根的声音也确像他本人,尽管不像位已故总统亲自接受采访时,人所期望的那

娱乐迪士尼在一项备受瞩目的技术应用案例中,利用人工智能模仿了詹姆斯・厄尔・斯的志性声音,并在位演可后,其串流电视剧《欧比旺・克比》中的达斯・的台配音。这项术还在不断改。2023年1月,康乃尔大学一篇关于算和言的印本文展示了一个人工智能音生成系统仅三秒训练,便能大幅度且逼真地复制受者的声音。模型甚至允使用者改声音固有的情感特

对话式人工智能

“聊天生成式预训练转换器”(ChatGPT)是一款模人类写文字和对话理工具,最近引起了人们对当前人工智能复程度的广泛关注。{者注:“聊天生成式预训练转换器”在下文“聊天模型”。}“聊天模型”由大的生成式预训练转换器-3言模型驱动,并由其建者开放人工智能研究中心向公众开放,让许多非专业人士首次体到人工智能模人类反的能力。

“聊天模型”能够行文字对话、以浅易懂的方式解概念,并在面最荒的情境,仍能出看似由人类作的原内容。无要求它作任何主的原创诗句、歌甚至本,或是从未见过面的知名人物的虚构对话纪录”,抑或模仿某位著名作家的写作格,“聊天模型”都能交出令人惊人化成果。

但是,“聊天模型”目前有缺陷。开放人工智能研究中心承,用于训练“聊天模型”的大量内容,在政治和意方面存在偏。研究人测试也注意到,“聊天模型”和其他类似的人工智能聊天机器人在对话续较长后容易出“幻”,意味著人工智能会开始引入明不准确的“事”。当与人工智能沟通的人类刻意引演算法入其未被设计探索的情况尤。然而,研究人仍在不断努力训练的人工智能系,以避免此类陷阱,并越来越成功地模人类互

注意:本文末包含《未来世界》编辑与“聊天模型”之于人工智能生成媒体的危性的“访谈”。)

人工智能工具落入不当之手的危

随著人工智能工具模仿现实世界各个面(像、视讯音、文字)的能力日益强大,个人、企和政府利用些工具欺他人的能力也日益增强。事上,情况已经发生,而且持了一段时间

2019年,美道称,一个名为凯蒂・斯的《英网》用是一个虚假帐户,可能用于间谍个不存在的蒂・斯在其帐户资料中使用了人工智能生成的人,并与多参与美国政治和政策制定的人士建立了系。美社引述任美国国家反情与安全中心主任威廉・埃瓦尼称,中国利用些虚假帐户对美国行“大模”监视

多《脸书》用都曾收到一些听起来很奇怪的简讯,表面上是来自陷入困境、需要经济援助的朋友。心的者能迅速例如息缺乏个人细节,或于生硬。然而,文字生成体可能很快就能分析人的社交媒体文,并以非凡且具欺性的精准度模仿其写作甚至能以假冒身份的“声音”回,并在回答中包含个人细节

有,在2019年,人工智能引了一宗高科技企业电话诈骗案。《街日》于同年8月30日道了一家未透露名称的英国公司,被诈骗者利用人工智能模仿公司德国母公司首席行官的声音,诈骗了220,000欧元(243,000美元)的案件。从那起,取得了重大展。

当人工智能子能够与受害者互并通所有验证测试时,此类局的成功率会提高多少?而且,就像埃瓦尼先生暗示的“大模”监视用程式和体也能实现似的大诈骗,因一个子就能同部署数十个、数百个甚至数千个程式。

随著人工智能体越来越普遍,每当出新的视讯,声称其被“深度造”的情况就会越来越多。在很多情况下,法确存在。但随著人工智能模拟现实的能力不断提升,法将越来越证实

虚假的“人系”

某些危为隐晦。2021年7月,《旧金山》以〈杰茜卡模:人工智能代的与失落〉一文引发热议者杰森・法戈尼描述一名青年如何运用游戏设计师杰森・赫尔基于生成式预训练转换器-3用程式而开的“十二月”,上逝去女友的文字息,聊天机器人模对话,就像他常与女友的鬼魂对话放人工智能研究中心。个例子启赫尔先生,将“十二月”定位为实现标语所言“模逝者”的工具。但这显致开放人工智能研究中心要求赫尔采取他不愿施的保措施,促使他止了这项计

然而,于跨国巨头亚马逊而言,令死者“重生”的可能性似乎并未得如此令人却步。在2022年6月的人工智能技大会上,亚马逊播放了一段视讯视频中一个孩子他的“莉克莎”设备:“‘莉克莎’,奶奶能完《绿野仙踪》?”设备回答“好的”,然后开始用孩子已故祖母的声音朗读这

虽然人与逝去人的模仿者互的想法或能温暖一些人的心,但我们应该扪心自健康?在视讯发布之前,亚马逊裁兼“莉克莎”首席科学家曾表示,展正在“促成持久的人系”。但无与模仿人类的人工智能设备进行多少次互或“对话哪怕它有多么“深入”、“深刻”或“感人”,您并非于一段人系中。您是活在一个言中。而且,很想像这样的幻想长远来看不会弊大于利。

言之父的力工具

一切可能走向何方而且可能极其迅速地任何明白“世界的神明”(〈哥林多后〉4:4)身份之人,理应显而易。撒但魔鬼至今仍掌控著人类,其中“索取”的精神比“予”的精神更大。耶基督称他为谎言之父,而在处处反映魔鬼本性的世界里,欺早已成世俗之人最常用的工具,用以偷窃、坏与操。而人工智能予的能⼒,正为这项工具注入了强大的能量。

在一个看似能为谎言服而重塑现实本身的世界里,究竟能生多少混乱?

虚假指控早已成世界政治的一部分。在想像一下,我能够制造虚假但完全可信的“据”来支持些指控。例如,想像有人使用音复制技,重塑某位政客“意外”被麦克捕捉到侮辱支持者或承犯罪的声音。在摇摆数个百分点票便足以左右胜负选举中,视讯无需服所有人只需服足够多的人,便足以扭转战局。

类似的操也可能被用来影响地政治。想像一段虚假的“影像”,内容是一位重要外交官讨论对一个国家经济制裁甚至事行。那些试图国家程的人会引什么的反

一段造的音,记录一位科学家承医学实验造假,可能会摧大众对实验结果的信任。一段造的像,记录一位首相秘密反与其他议员成的协议,可能会引足够的怀疑,从而改的投票果。

当然,被描的人可能会大喊:“深度造!音复制!人工智能造假!”如果他电脑诈欺的受害者,他如此做。然而,真正有罪的一方也会开始提出这样的指控。随著人工智能欺的案例正逐为预期中的象,甚至司空见惯,那些被拍到视讯音等据的真正罪犯,会明白声称自己也是数码谎言和高科技伎的受害者的好,即使他并非受害者。

大多数人会如何分辨?

人类的自欺

当然,随著人工智能模拟现实生活的能力不断增强,我可以期,基于人工智能帮助我区分真的工具能够人工智能造假的人工智能用程式也会同步成。由于世界各地的高中教担心学生提交由人工智能聊天机器人撰写的家庭作,开放人工智能研究中心已开始开一款“人工智能分类器”,以帮助文本是人类生成的是人工智能生成的。

公司承(截至2023年1月31日),工具“并非完全可靠”。据公司的网站称,工具“正确地将26%的人工智能写文本‘可能是人工智能写的’(真阳性),而将9%的人类写文本错误标记为人工智能写(假阳性)。”并非一个令人鼓舞的果,但希望通更多的回能够有所改

尽管如此,我抗人工智能驱动的欺骗时,主要弱点并非在于技本身的力量,而在于我自身的人性。圣指出,每个人生命中最具欺性的力量并非来自外部,而是内在自己的心(〈耶利米〉17:9)。上帝宣告人心“比万物都诡诈”(第10),唯有藉他的帮助方能真正洞悉。我本性不足以抵辨别真的努力,更会不断使我们选择令人舒服的言,而非面令人不安的真相。

倘若一段视讯至社交媒体,内容恰恰示某位政客做了那些厌恶他的期的行径,民会多么愿意直接接受其真无需任何一步据?倘若新媒体分享某位国会议员总统的音片段,使其看似确有其事地犯下批者指控的罪行,那些曾投票反他的人又会多快相信一切?

们许多人早已活在自己造的数媒体泡沫中。事上,多人已成自我欺的最大推手。而上帝早已言,在文明的末日,情况将会如此。

上帝描述那些生活在末世的人道:“他是悖逆的百姓、说谎的儿女,是不肯听从耶和华训诲的儿女”(〈以赛亚书30:9〉)。他继续,“他们对见说:‘不要再看了’;先知:‘不要向我们预言正直的事;要们说好听的言虚幻的事’”(第10)。

当然,几乎没有人会真的喊出“我吧!”这样。但在耶基督再前的月里,人的心却正渴求著言。他们对真相的兴趣日益减退,却那些能佐自身既定信念的言愈著迷。般人被欺机已然成熟直是主

正如上帝透先知耶利米所记载的关于我们这一代人的:“国中有令人惊、恐怖的事生,就是先知言,祭司把权柄抓在自己手上,我的百姓也喜爱这样”(〈耶利米〉5:30-31)。

扎根于真理

接著,耶利米告,上帝了一个问题:“到了局你要怎么?”(第31)。

怎么

当中很少人有时间源成人工智能家。而且,无人工智能驱动的欺浪潮是否即将来,我的世界迈入一个前所未有的欺和虚假代。《圣》警告,欺者数量众多,而且会有更多(〈翰一〉2:18;〈太福音〉24:24),使徒翰也记录了受圣灵默示的控告:全世界都于魔鬼的迷惑之下(〈启示〉12:9)。

当一的旋风势必来袭时,我能采取的最重要行,便是将自己扎根于那些真可靠的事物之中何地,永恒的真理皆能抵御那些模仿现实的幻象。

些真理存在于上帝的儿子耶基督及其父之中。上帝的道就是真理(〈翰福音〉17:17),而基督的是真理,更是灵与生命(〈翰福音〉6:63)。

如果您想守心灵免于言中即将来言攻传统形式的言,抑或人工智能制造的那么准的心灵,舍弃一切迷思与自我欺(无是否珍的),并求造物主的心意,便是您能采取的最明智的第一步,因“他是磐石,他的作完全,他一切所行的都公平;他是的上帝,又公,又正直”(〈申命〉32:4)。

原文者注:以下访谈由《未来世界》一位编辑与“聊天模型”行;“聊天模型”乃开放人工智能研究中心工作和造力的晶。我期待这项新科技的运作示范,能来与我深刻且有趣的体

与“聊天模型”的聊天

在以下对话中,我放人工智能研究中心的聊天机器人“聊天模型”,探人工智能用作工具所来的风险

《未来世界》:谢谢接受访问。我称呼您呢?

“聊天模型”:您可以称我“聊天模型”。

《未来世界》:再次感!我直接入正。一个国家的政府如何运用人工智能生成的媒体抗另一个国家?

“聊天模型”:一个国家的政府可能会利用人工智能生的媒体来播虚假息或宣,以抹黑或操一个国家。

《未来世界》:能否具体描述一个切合实际的情境?

“聊天模型”:在一个假景中,一个国家可以使用人工智能生的视讯或音,来制作令人信服的假新故事,以面的眼光描绘敌对国家,然后透社交媒体管道播它,以破坏敌对国家的信誉和国地位。

《未来世界》:一个国家内的人民会如何透过这方式被分裂?

“聊天模型”:人工智能生成的媒体可以利用社会中有的断层线和分歧,针对特定群体提供有针对性的虚假信息,强化他们现有的信仰或偏致国家内部一步两极分化和分裂。

《未来世界》:认为人工智能有可能以这样的方式被利用

“聊天模型”:憾的是,随著技日益先且政府及其他企影响舆论或推进战略利益的行者更易取得相关技,人工智能生成的媒体确可能被用于目的。

《未来世界》:是的,有可能。但是可能性有多大呢?

“聊天模型”:难说这可能性有多大,因它取决于多种因素,包括人工智能技展、源的供,以及政府和各方的机与行。然而,于此类行的潜在后果,我到相关风险并致力于减轻这风险

《未来世界》:哪种特定形式的人工智能生成媒体最危

“聊天模型”:所有形式的人工智能生成媒体如果被用来播虚假息或操纵舆论,都有可能造成危,而深度造(使用人工智能建逼真但虚假的像或视讯尤其有害,因发现,并且可以透社交媒体网路迅速播。

《未来世界》:是的,它造成了害。

“聊天模型”:。深度造已被用于在政治、娱乐和广告等各种播虚假信息和操纵舆论,而且随著技,其造成危害的可能性可能会越来越大。

《未来世界》:您是否同意我的技术发展,往往超出了我合乎道德地使用科技的能力?

“聊天模型”:在某些情况下,科技展的速度已超出了我们预测和解决道德问题的能力,尤其是在新科技出并迅速被社会采用的情况下。然而,我也在努力推动负责任的技和使用,包括透研究、政策和教育,有助于解潜在的道德问题

《未来世界》:是否应该暂停生成式人工智能的开,直到我做好道德准

“聊天模型”:没有必要全面停生成式人工智能的开,但必虑这些技的道德影响,并采取措施确保以负责任的方式开和使用它可能包括施法、促透明度和问责制,以及投教育和研究,去建立以道德方式管理些技的能力。

《未来世界》:已有如此多的人信虚假资讯。人工智能会加速趋势这难道不是必然

“聊天模型”:人工智能可以造出更具服力、更具针对性的虚假息,有可能加人被虚假资讯所蒙趋势。然而,提高对这问题认识,并努力提升媒体写技能和批判性思考能力,也有可能有助于扭转这趋势,减少虚假资讯的影响。

《未来世界》:是什么对这问题抱持希望?

“聊天模型”:多个人、组织和政府正在努力解决人工智能生的虚假资讯问题,并推动负责任地开和使用人工智能,这让我感到鼓舞。人也越来越意到潜在的风险,并愿意参与对话并采取行来降低风险

《未来世界》:关于如何避免建基于人工智能的局,您能者一些建议吗

“聊天模型”:避免陷入人工智能制造的局,面看似好得令人以置信的媒体内容,保持怀度至关重要。在分享或采取行前,必核实资讯来源与真性。此外,培养媒体写技能例如查证与辨来源的能力将有助于在日益复的媒体境中明辨是非。

《未来世界》:太好了。感时间,“聊天模型”或者该说时钟周期!

“聊天模型”:不客气!很高兴接受您的访问