新聞真假難辨 AI淪造謠幫兇(郝本尼)
原文刊於信報財經新聞「CEO AI⎹ EJ Tech——智情筆報」
早前美國保守派政客柯克(Charlie Kirk)遇刺後,人工智能(AI)不幸淪為了謠言加速器,甚至變成新的政治動員工具。
首先是在事發不久後,幾間主流AI聊天機械人,都被發現輸出錯誤訊息。Grok屢次誤認嫌犯身份,翌日又稱柯克尚在人世。Perplexity則指槍擊純屬假設,並以為白宮真實聲明是偽造文件。Google旗下AI Overviews,亦一度把某名普通用戶,錯標為警方的通緝對象。
生成疑犯照誤導 擾亂搜證
這些現象再次提醒我們,大型語言模型終究只會生成最可能的文本,而非經查核的事實,一旦面對即時新聞、突發情景,AI很易產生虛假的內容。如Google發言人回應傳媒時說:「鑑於這一則新聞的快速演變,我們的系統有可能誤解網路內容,或忽略了一些脈絡。」
更令人不安的是,當地警察居然於蒐證與徵詢線索期間,在社交媒體轉貼一張AI去噪的槍手「清晰」影像。須知AI在運作過程中,可能加插了一些不存在於原圖的細節,執法單位若使用這種推測性影像,不僅誤導民眾辨識嫌犯,長遠還有機會污染搜證程序、踐踏司法公正。
藉柯克「深偽片」煽動鬥爭
接着來到周末,如同近年其他重大事件,錯誤訊息與「深偽」(Deepfake)影片繼續湧現。不同的是,今天AI工具生成與散播的門檻又進一步降低,導致出現許多由AI合成的柯克「身後演說」影片,模仿他的語氣,呼籲追隨者繼續作政治鬥爭。
做出此種行為的人,自以為用AI復活逝者聲音,延續其生前的政治宣傳,是一種紀念或傳承,殊不知這才是最不尊重的褻瀆之舉,用意惟恐天下不亂。
柯克遇刺本身已是一場政治悲劇,卻因AI技術的介入造成資訊失序與道德滑坡,讓社會變得更混亂撕裂。
AI技術或許天然中立,但若用戶缺乏最基本的智慧與倫理約束,它就能夠充當製造謠言與操弄人心的幫兇。
為了守住真相、道德與尊嚴的底線,人類不能只表達哀悼與憤怒,而是應該劃出清晰界線,確保AI不會加劇社會危機。
更多郝本尼文章:
支持EJ Tech

