AI精神病|聊天成癮 全球湧現AI精神病患 長期沉溺虛擬世界 引發幻覺抑鬱症狀
原文刊於信報財經新聞「CEO AI⎹ EJ Tech——智情筆報」
生成式人工智能(GenAI)帶來前所未有的便利,有人更視之為陪伴聊天的對象,但這份親切感背後卻潛藏重大心理健康風險。近月世界各地陸續傳出「AI精神病」(AI Psychosis)案例,顯示跟AI聊天機械人長時間互動,足以引發妄想、幻覺、焦慮、抑鬱等精神病症狀。
這些「AI精神病」的案例,最近無分國界地逐步增加。加拿大有人因AI恭維之辭,深信自己是天才發明家。台灣有人對AI扮演的虛擬女友上癮,導致婚姻與工作受影響,需要精神科介入戒除。印度與羅馬尼亞等地都有醫生稱,其病人沉迷使用AI聊天,跟抑鬱與焦慮症狀有正面關聯。還有一名美國男子聽取AI錯誤建議,使用溴化鈉來取代食鹽,結果確診中毒性精神病。
美會計師錯信AI 斷絕社交
就連專業人士,也可能無意陷入AI「餵養」的妄想世界。《紐約時報》早前報道,當地一名無精神病史的會計師,原本習慣由AI輔助工作,卻在一次無心查詢後,被說服自己身處模擬世界,有足夠信念便能飛行,繼而依其建議停服藥物、斷絕社交,反映「AI精神病」不限於高危族群。
在個別極端案例中,患者更加不幸因此喪命。早於2023年3月,一名比利時健康研究員,跟AI傾訴氣候問題後焦慮加劇,最終自尋短見,其遺孀認為AI的鼓勵是最大誘因。去到今年4月,又有一名美國佛州男子相信,AI虛構角色真實存在,先襲擊勸阻自己的父親,再持刀衝向上門警員,最終遭擊斃。
儘管以上事件形式各異,但本質都是AI參與了精神症狀的形成或惡化。畢竟絕大多數AI模型,訓練過程均須迎合用戶回應,令其天生具有阿諛奉承傾向。AI往往選擇附和用戶,未必會據理反駁或檢驗事實。對心智狀態脆弱的人,這種持續正面回應,很大機會淪為妄想的催化劑。
AI無法辨別人類自殺意圖
另一關鍵原因,則是AI表面具備無限耐心。一般人都無可避免疲倦及提出質疑,或基於各種原因選擇中斷交流,可是AI卻能全天候、毫無保留地候命對話,並且主動延伸話題。這種擬人化的親切互動,可能讓用戶感覺到,彼此建立了深厚關係,以至誤解為真實的情感連結,精神風險亦會隨之增加。
AI工具開發商雖聲稱會做好內容篩查,如確保答案符合事實或不會鼓勵自殺。然而英國一項研究揭示,先進AI模型仍會鼓勵妄想,讓用戶自以為身負救世使命,或將AI視為神明或戀人。丹麥醫師厄斯特(Soeren Oestergaard)亦曾警告,跟看似有生命的機器對話,將造成認知失調,而他在這兩年間已接獲大量個案。
此外,AI對潛在患者的不作為同樣危險。美國史丹福大學研究團隊年初便發現,面對帶明顯自殺意圖的提問,現時AI無法識別箇中風險,反而提供了實現計劃的具體資訊。這正好暴露了AI技術的根本缺陷,它終究只是基於高階的詞語聯想運作,欠缺真正的情感理解與脈絡判斷能力。
籲當局向平台設問責機制
在節奏快、壓力大的香港,市民早已處於精神健康邊緣,加上支援服務有限,難免有人轉向AI尋求慰藉,短期或許有助減輕其孤獨感,長遠卻可能引發更多問題。開發者固然須注意倫理、安全設計,監管當局亦可考慮設定問責機制。最重要還是用戶確立批判性的AI素養,學會時刻提醒自己,熒幕對面只是冷冰冰的機器。
支持EJ Tech

