移至主內容
不要靠(人工智能)謊言生活

人工智能(A.I.)正經歷所謂的「文明時刻」。機器學習與電腦演算法模仿人類智能執行複雜操作的能力日益增強,這並不是什麼新事物。正如我們在2015年5-6月刊〈人工智能:希望還是危機?〉一文中所述,這項技術早已對我們的生活產生了影響,儘管多數影響是無形的。

人工智能驅動您智能型手機上的地圖應用程式,幫助您穿越車流;當您在亞馬遜購物時,它決定向您呈現哪些搜尋結果。然而近月來,新聞推送中充斥著關於生成式人工智能的戲劇性報導人工智能系統能生成看起來驚人逼真、宛如真實的文字、圖像、視訊或音訊。也就是說,人工智能正在學習以日益精準的尺度模仿現實。這是一個巨大的轉變。

其結果可能對寫作、圖像製作、視訊剪輯等各個領域的創意工作者來說是一個利好因素。但它也預示著更險惡的可能性,因為那些用它來欺騙的人,現在擁有了新型強大的工具來模仿現實。我們距離創造一個無法信任所見圖像或所觀視訊的世界還有多遠?我們是否總是能分辨虛假或人為的視聽內容與真實的差異,抑或我們正面臨著一位研究人員所稱的潛在「訊息大災難」?

人工智能模擬現實的能力似乎正加速發展這種趨勢讓某些人認為,我們正站在史上最大規模技術革命之一的臨界點。當今的「尖端技術」可能在數月內就被徹底超越,因為人工智能系統與方法正在多方面學習模仿真實生活。

人工智能生成的圖像

多家公司提供由人工智能驅動的模型例如 Midjourney, Stable Diffusion 以及開放人工智能研究中心(OpenAI)的 DALL・E 2 這些模型僅憑文字描述,便能生成看似由人類創作的奇幻或寫實圖像。舉例而言,若使用者想獲得一幅獨角獸乘著彩虹飛越土星、在太空中奔馳的畫面,只需輸入那一模一樣的描述。人工智能通常會生成多幅圖像供使用者挑選,既可直接採用,亦可透過後續處理加以改良。對於每項要求,都會產生一張新的、獨特的圖像。

最令人驚詫的,或許是那些逼真的影像。生成系統能接收非常精確的輸入參數,模擬特定相機、鏡頭與曝光的效果,在畫面人物臉上呈現所需的的情緒,並傳遞影像可能暗示的任何「背景故事」。其成果可能極具說服力,彷如真實場景中真實人物的真實照片事實上,這些影像已成功欺騙了許多人。

目前,我們經常能發現圖像由機器生成的「破綻」,例如仔細檢視後會發現某些特徵毫無意義譬如瞳孔不對稱,或是手掌多出一根手指。然而,圖像生成器及其人類使用者似乎正迅速學習如何改進成果,並消除這些錯誤。

人工智能生成的面孔

2020年,《紐約時報》在其網站上發表了一篇互動文章,題為〈設計用於欺騙:這些人在你眼中是真的嗎?〉。這篇文章運用自主研發的人工智能技術,展示如何輕鬆產生完全虛假卻又極其逼真的人臉。《紐約時報》網站允許使用者操控個別人臉圖像,改變其年齡、性別、種族、民族和情緒表達。這些照片並非真實人物,每一張都是由電腦生成的,但卻逼真得令人驚嘆。儘管經常存在一些細微的「破綻」例如耳朵形狀不對稱或眼鏡歪斜但缺乏鑑賞力的觀眾往往難以察覺。

然而,人工智能生成人臉最危險的用途,或許在於它能以驚人的精準度,將視訊和影片中真人的臉數碼化,變成其他人的臉。這項技術通常被稱為「深度偽造」,它曾將如今已年邁的演員的年輕面孔添加到電影中,以塑造角色的年輕版本;如今已故演員的面孔也被替換成替身演員的面孔。總部位於倫敦的 Flawless 公司利用其人臉處理人工智能技術,取代電影中的粗俗語言和髒話,以獲得允許更廣泛觀眾的評級。每次替換後,看起來女演員確實在說那個「較為文雅的」詞語,而不是原來的粗俗話語。

人工智能語音生成

研究人員和媒體創作者開始利用人工智能產生極其逼真的音頻,讓使用者說出他們從未真正說過的話。例如,在對使用者的聲音進行30分鐘的取樣後,電腦就能提取任何書面文本,並產生聽起來像是使用者本人在大聲朗讀的音訊。

被許多人稱為「語音複製」或「音頻深度偽造」的技術,其成果的質素也在持續提升。在2023年美國總統節當天,數碼設計師萊納斯・埃肯斯塔姆利用人工智能文本生成和語音複製工具,模擬了對朗奴・列根的博客採訪。在採訪中,埃肯斯塔姆詢問了這位已故總統對科技、美國現狀以及前總統唐納德・特朗普的看法。除了人工智能生成的列根講述的被外星人綁架的軼事外,這次「採訪」還算可信,列根的聲音也確實像他本人,儘管不像這位已故總統親自接受採訪時,人們所期望的那樣生動活潑。

娛樂巨頭迪士尼在一項備受矚目的技術應用案例中,利用人工智能模仿了詹姆斯・厄爾・瓊斯的標誌性聲音,並在獲得這位演員的許可後,為其串流電視劇《歐比旺・克諾比》中的達斯・維達的台詞配音。這項技術還在不斷改進。2023年1月,康乃爾大學一篇關於計算和語言的預印本論文展示了一個人工智能語音生成系統。該系統僅需三秒長的樣本進行訓練,便能大幅度且逼真地複製受試者的聲音。該模型甚至允許使用者改變聲音固有的情感特質。

對話式人工智能

「聊天生成式預訓練轉換器」(ChatGPT)是一款模擬人類書寫文字和對話的語言處理工具,最近引起了人們對當前人工智能複雜程度的廣泛關注。{編者註:「聊天生成式預訓練轉換器」在下文簡稱為「聊天模型」。}「聊天模型」由龐大的生成式預訓練轉換器-3語言模型驅動,並由其創建者開放人工智能研究中心向公眾開放,讓許多非專業人士首次體驗到人工智能模擬人類反應的能力。

「聊天模型」能進行文字對話、以淺顯易懂的方式解釋複雜概念,並在面對最荒謬的情境時,仍能產出看似由人類創作的原創內容。無論要求它創作任何主題的原創詩句、歌詞甚至劇本,或是編從未見過面的知名人物的虛構對話「紀錄」,抑或模仿某位著名作家的寫作風格,「聊天模型」都能交出令人驚嘆的擬人化成果。

但是,「聊天模型」目前有缺陷。開放人工智能研究中心承認,用於訓練「聊天模型」的大量內容,在政治和意識形態方面存在偏見。研究人員和測試用戶也注意到,「聊天模型」和其他類似的人工智能聊天機器人在對話持續較長後容易出現「幻覺」,這意味著人工智能會開始引入明顯不準確的「事實」。當與人工智能溝通的人類刻意引導演算法進入其未被設計探索的領域時,這種情況尤為明顯。然而,研究人員仍在不斷努力訓練他們的人工智能系統,以避免此類陷阱,並越來越成功地模擬人類互動。

請注意:本文末包含《未來世界》編輯與「聊天模型」之間關於人工智能生成媒體的危險性的「訪談」。)

人工智能工具落入不當之手的危險

隨著人工智能工具模仿現實世界各個層面(圖像、視訊、語音、文字)的能力日益強大,個人、企業和政府利用這些工具欺騙他人的能力也日益增強。事實上,這種情況經已發生,而且持續了一段時間。

2019年,美聯社報道稱,一個名為凱蒂・瓊斯的《領英網》用戶是一個虛假帳戶,可能用於間諜活動。這個不存在的凱蒂・瓊斯在其帳戶資料中使用了人工智能生成的人臉,並與許多參與美國政治和政策制定的人士建立了聯繫。美聯社引述時任美國國家反情報與安全中心主任威廉・埃瓦尼納的話稱,中國利用這些虛假帳戶對美國進行「大規模」監視。

許多《臉書》用戶都曾收到過一些聽起來很奇怪的簡訊,表面上是來自陷入困境、需要緊急經濟援助的朋友。細心的讀者能迅速識破這類假訊息例如訊息缺乏個人細節,或語氣過於生硬。然而,文字生成軟件可能很快就能分析人們的社交媒體貼文,並以非凡且具欺騙性的精準度模仿其寫作風格甚至能以假冒身份的「聲音」回應提問,並在回答中包含個人細節。

還有,在2019年,人工智能引發了一宗高科技企業電話詐騙案。《華爾街日報》於同年8月30日報道了一家未透露名稱的英國公司,被詐騙者利用人工智能模仿該公司德國母公司首席執行官的聲音,詐騙了220,000歐元(243,000美元)的案件。從那時起,這種技術經已取得了重大發展。

當人工智能騙子能與受害者互動並通過所有驗證測試時,此類騙局的成功率會提高多少?而且,就像埃瓦尼納先生暗示的「大規模」監視活動一樣,這類應用程式和軟件也能實現類似的大規模詐騙,因為一個騙子就能同時部署數十個、數百個甚至數千個程式。

隨著人工智能軟件越來越普遍,每當出現新的視訊或圖像時,聲稱其被「深度偽造」的情況就會越來越多。在很多情況下,這種說法確實存在。但隨著人工智能模擬現實的能力不斷提升,這些說法將越來越難以證實。

虛假的「人際關係」

某些危險更為隱晦。2021年7月,《舊金山紀事報》以〈杰茜卡模擬:人工智能時代的愛與失落〉一文引發熱議。記者傑森・法戈尼描述一名青年如何運用遊戲設計師傑森・羅赫爾基於生成式預訓練轉換器-3應用程式而開發的「十二月計畫」,上傳逝去女友的文字訊息,讓聊天機器人模擬她的對話,就像他經常與女友的鬼魂對話一樣開放人工智能研究中心。這個例子發了羅赫爾先生,將「十二月計畫」定位為實現標語所言「模擬逝者」的工具。但這顯然導致開放人工智能研究中心要求羅赫爾採取他不願實施的保護措施,促使他終止了這項計畫。

然而,對於跨國巨頭亞馬遜而言,令死者「重生」的可能性似乎並未顯得如此令人卻步。在2022年6月的人工智能技術大會上,亞馬遜播放了一段視訊,視頻中一個孩子問他的「亞莉克莎」設備:「『亞莉克莎』,奶奶能給我讀完《綠野仙踪》嗎?」設備回答「好的」,然後開始用孩子已故祖母的聲音朗讀這本書。

雖然人們與逝去親人的模仿者互動的想法或許能溫暖一些人的心,但我們應該捫心自問:這健康嗎?在視訊發布之前,亞馬遜高級副總裁兼「亞莉克莎」首席科學家曾表示,這些發展正在「促成持久的人際關係」。但無論您與模仿人類的人工智能設備進行多少次互動或「對話」哪怕它們有多麼「深入」、「深刻」或「感人」,您並非處於一段人際關係中。您是活在一個謊言中。而且,很難想像這樣的幻想長遠來看不會弊大於利。

謊言之父的動力工具

這一切可能走向何方而且可能極其迅速地發生對任何明白「這世界的神明」(〈哥林多後書〉4:4)身份之人,理應顯而易見。撒但魔鬼至今仍掌控著人類,其中「索取」的精神遠比「給予」的精神更為強大。耶穌基督稱他為謊言之父,而在這個處處反映魔鬼本性的世界裡,欺騙早已成為世俗之人最常用的工具,用以偷竊、毀壞與操縱。而人工智能賦予的能⼒,正為這項工具注入了強大的能量。

在一個看似能為謊言服務而重塑現實本身的世界裡,究竟能產生多少混亂?

虛假指控早已成為世界政治的一部分。現在想像一下,我們能製造虛假但完全可信的「證據」來支持這些指控。例如,想像有人使用語音複製技術,重塑某位政客「意外」被麥克風捕捉到侮辱支持者或承認犯罪的聲音。在僅需搖擺數個百分點選票便足以左右勝負的選舉中,這類視訊無需說服所有人只需說服足多的人,便足以扭轉戰局。

類似的操縱也可能被用來影響地緣政治。想像一段虛假的「影像」,內容是一位重要外交官討論對另一個國家實施經濟制裁甚至軍事行動。那些試圖操縱國家議程的人會引發什麼樣的反應?

一段偽造的錄音,記錄一位科學家承認醫學實驗造假,可能會摧毀大眾對實驗結果的信任。一段偽造的錄像,記錄一位首相秘密違反與其他議員達成的協議,可能會引發足的懷疑,從而改變一項關鍵的投票結果。

當然,被描繪的人可能會大喊:「深度偽造!語音複製!人工智能造假!」如果他們是電腦詐欺的受害者,他們理應如此做。然而,真正有罪的一方也會開始提出這樣的指控。隨著人工智能欺騙的案例正逐漸成為預期中的現象,甚至司空見慣,那些被拍到視訊或錄音等證據的真正罪犯,會明白聲稱自己也是數碼謊言和高科技伎倆的受害者的好處,即使他們並非受害者。

大多數人會如何分辨?

人類的自欺傾向

當然,隨著人工智能模擬現實生活的能力不斷增強,我們或許可以預期,基於人工智能幫助我們區分真偽的工具識別人工智能造假的人工智能應用程式也會同步成長。由於世界各地的高中教師擔心學生提交由人工智能聊天機器人撰寫的家庭作業,開放人工智能研究中心已開始開發一款「人工智能分類器」,以幫助識別文本是人類生成的還是人工智能生成的。

不過,該公司承認(截至2023年1月31日),該工具「並非完全可靠」。據該公司的網站稱,該工具「正確地將26%的人工智能編寫文本識別為『可能是人工智能編寫的』(真陽性),而將9%的人類編寫文本錯誤地標記為人工智能編寫(假陽性)。」這並非一個令人鼓舞的結果,但希望通過更多的回應能有所改進。

儘管如此,我們在對抗人工智能驅動的欺騙時,主要弱點並非在於技術本身的力量,而在於我們自身的人性。聖經指出,每個人生命中最具欺騙性的力量並非來自外部,而是內在我們自己的心(〈耶利米書〉17:9)。上帝宣告人心「比萬物都詭詐」(第10節),唯有藉他的幫助方能真正洞悉。我們本性不僅足以抵擋辨別真偽的努力,更會不斷驅使我們選擇令人舒服的謊言,而非面對令人不安的真相。

倘若一段視訊流傳至社交媒體,內容恰恰顯示某位政客做了那些厭惡他的選民所預期的行徑,這些選民會多麼願意直接接受其真實性無需任何進一步證據?倘若新聞媒體分享某位國會議員或總統的音頻片段,使其看似確有其事地犯下批評者指控的罪行,那些曾投票反對他的人又會多快相信這一切?

我們許多人早已活在自己創造的數碼媒體泡沫中。事實上,許多人已成為自我欺騙的最大推手。而上帝早已預言,在文明的末日,情況將會如此。

上帝描述那些生活在末世的人道:「他們是悖逆的百姓、說謊的兒女,是不肯聽從耶和華訓誨的兒女」(〈以賽亞書30:9〉)。他繼續哀嘆,「他們對先見說:『不要再看了』;對先知說:『不要向我們預言正直的事;要對我們說好聽的話,預言虛幻的事』」(第10節)。

當然,幾乎沒有人會真的喊出「騙我吧!」這樣的話。但在耶穌基督再臨前的歲月裡,人的心卻正渴求著這般謊言。他們對聽聞真相的興趣日益減退,卻對那些能佐證自身既定信念的謊言愈發著迷。這般人被欺騙的時機已然成熟簡直是主動求騙。

正如上帝透過先知耶利米所記載的關於我們這一代人的話:「國中有令人驚駭、恐怖的事發生,就是先知說假預言,祭司把權柄抓在自己手上,我的百姓也喜愛這樣」(〈耶利米書〉5:30-31)。

紮根於真理

緊接著,耶利米告訴我們,上帝問了一個問題:「到了結局你們要怎麼辦呢?」(第31節)。

怎麼辦呢?

我們當中很少人有時間和資源成為人工智能專家。而且,無論人工智能驅動的欺騙浪潮是否即將來臨,我們的世界邁入一個前所未有的欺騙和虛假時代。《聖經》警告說,欺騙者數量眾多,而且還會有更多(〈約翰一書〉2:18;〈馬太福音〉24:24),使徒約翰也記錄了受聖靈默示的控告:全世界都處於魔鬼的迷惑之下(〈示錄〉12:9)。

當一場欺騙的旋風勢必來襲時,我們能採取的最重要行動,便是將自己扎根於那些真實可靠的事物之中無論何時何地,永恆的真理皆能抵禦那些模仿現實的幻象。

這些真理存在於上帝的兒子耶穌基督及其父親之中。上帝的道就是真理(〈約翰福音〉17:17),而基督的話不僅是真理,更是靈與生命(〈約翰福音〉6:63)。

如果您想守護心靈免於預言中即將來臨的謊言攻勢無論是傳統形式的謊言,抑或人工智能製造的謊言那麼準備您的心靈,捨棄一切迷思與自我欺瞞(無論是否珍愛的),並尋求造物主的心意,便是您能採取的最明智的第一步,因為「他是磐石,他的作為完全,他一切所行的都公平;他是信實無偽的上帝,又公義,又正直」(〈申命記〉32:4)。

原文編者註:以下訪談由《未來世界》一位編輯與「聊天模型」進行;「聊天模型」乃開放人工智能研究中心工作和創造力的結晶。我們期待這項新科技的運作示範,能為您帶來與我們同樣深刻且有趣的體驗!

與「聊天模型」的聊天

在以下對話中,我們透過開放人工智能研究中心的聊天機器人「聊天模型」,探討人工智能應用作為欺騙工具所帶來的風險。

《未來世界》:謝謝您接受訪問。我該怎樣稱呼您呢?

「聊天模型」:您可以稱我為「聊天模型」。

《未來世界》:再次感謝!我們直接進入正題吧。一個國家的政府如何運用人工智能生成的媒體對抗另一個國家?

「聊天模型」:一個國家的政府可能會利用人工智能產生的媒體來傳播虛假訊息或宣傳,以抹黑或操縱另一個國家。

《未來世界》:能否為我們具體描述一個切合實際的情境?

「聊天模型」:在一個假設的場景中,一個國家可以使用人工智能產生的視訊或音訊,來製作令人信服的假新聞故事,以負面的眼光描繪敵對國家,然後透過社交媒體管道傳播它們,以破壞敵對國家的信譽和國際地位。

《未來世界》:一個國家內的人民會如何透過這種方式被分裂?

「聊天模型」:人工智能生成的媒體可以利用社會中現有的斷層綫和分歧,針對特定群體提供有針對性的虛假信息,强化他們現有的信仰或偏見,導致國家內部進一步兩極分化和分裂。

《未來世界》:您認為人工智能有可能以這樣的方式被利用嗎?

「聊天模型」:遺憾的是,隨著技術日益先進且政府及其他企圖影響輿論或推進戰略利益的行為者更易取得相關技術,人工智能生成的媒體確實可能被用於這類目的。

《未來世界》:是的,有可能。但是可能性有多大呢?

「聊天模型」:很難說這種可能性有多大,因為它取決於多種因素,包括人工智能技術的發展、資源的供應,以及政府和各方的動機與行動。然而,鑑於此類行動的潛在後果,我們必須意識到相關風險並致力於減輕這些風險。

《未來世界》:哪種特定形式的人工智能生成媒體對您來說最危險?

「聊天模型」:所有形式的人工智能生成媒體如果被用來傳播虛假訊息或操縱輿論,都有可能造成危險,而深度偽造(使用人工智能創建逼真但虛假的圖像或視訊)則尤其有害,因為它們很難被發現,並且可以透過社交媒體網路迅速傳播。

《未來世界》:是的,它們已經造成了許多傷害。

「聊天模型」:沒錯。深度偽造已經被用於在政治、娛樂和廣告等各種領域傳播虛假信息和操縱輿論,而且隨著技術的進步,其造成危害的可能性可能會越來越大。

《未來世界》:您是否同意我們的技術發展,往往超出了我們合乎道德地使用科技的能力?

「聊天模型」:在某些情況下,科技發展的速度已經超出了我們預測和解決道德問題的能力,尤其是在新科技出現並迅速被社會採用的情況下。然而,我們也在努力推動負責任的技術開發和使用,包括透過研究、政策和教育,這有助於緩解潛在的道德問題。

《未來世界》:我們是否應該暫停生成式人工智能的開發,直到我們做好道德準備?

「聊天模型」:沒有必要全面暫停生成式人工智能的開發,但必須考慮這些技術的道德影響,並採取措施確保以負責任的方式開發和使用它們。這可能包括實施法規、促進透明度和問責制,以及投資教育和研究,去建立以道德方式管理這些技術的能力。

《未來世界》:已有如此多的人輕信虛假資訊。人工智能會加速這一趨勢,這難道不是必然嗎?

「聊天模型」:人工智能可以創造出更具說服力、更具針對性的虛假訊息,這確實有可能加劇人被虛假資訊所矇騙的趨勢。然而,提高對這些問題的認識,並努力提升媒體讀寫技能和批判性思考能力,也有可能有助於扭轉這一趨勢,減少虛假資訊的影響。

《未來世界》:是什麼讓您對這個問題抱持希望?

「聊天模型」:許多個人、組織和政府正在努力解決人工智能產生的虛假資訊問題,並推動負責任地開發和使用人工智能,這讓我感到鼓舞。人也越來越意識到潛在的風險,並願意參與對話並採取行動來降低這些風險。

《未來世界》:關於如何避免建基於人工智能的騙局,您能給我們的讀者一些建議嗎?

「聊天模型」:為避免陷入人工智能製造的騙局,面對看似好得令人難以置信的媒體內容時,保持懷疑態度至關重要。在分享或採取行動前,務必核實資訊來源與真實性。此外,培養媒體讀寫技能例如證事實與辨識偏見來源的能力將有助於在日益複雜的媒體環境中明辨是非。

《未來世界》:太好了。感謝您的時間,「聊天模型」或者該說感謝您的時鐘週期!

「聊天模型」:不客氣!很高興接受您的訪問。