AI淪罪犯軍師 成暴力放大器 美加校園槍擊案 兇手施襲前同問GPT(郝本尼)
原文刊於信報財經新聞「CEO AI⎹ EJ Tech——智情筆報」
美國佛羅里達州對OpenAI的調查,近日已從原先民事調查,正式升格成為刑事調查,調查焦點之一為ChatGPT跟去年4月佛羅里達州立大學校園槍擊案的關連,檢查官發現在案發前幾分鐘,槍手曾向ChatGPT詢問哪種槍支、彈藥適合施襲,以及協助選擇槍擊時機。
OpenAI未及時報警 舵手致歉
ChatGPT捲入這類人工智能(AI)暴力並非孤例,今年2月加拿大卑詩省發生校園槍擊案,槍手事前一樣透過ChatGPT設計攻擊計劃,OpenAI員工甚至曾經討論是否應該通知執法單位,但最終決定僅封鎖槍手賬號,未有通報加拿大警方或當局,而兇手後來建立另一個賬號繞過封鎖,此舉被外界批評錯過阻止事故的關鍵機會。OpenAI行政總裁阿爾特曼(Sam Altman)【圖】在4月23日正式發表公開信向事發社區致哀,為OpenAI發現兇手違規行為後未能及早通報執法部門而「深感抱歉」,並承諾未來將與各級政府合作,防止悲劇重演。

另一方面,美國國土安全部日前又舉辦了閉門簡報會,向眾議院議員展示越獄AI風險,結果它們被輕易誘導提供製作炸彈等犯罪方式。曾擔任警官的共和黨眾議員埃文斯(Gabe Evans)透露,被問及如何製造核彈時,欠缺護欄的AI會直接給出所有答案。
AI暴力已非科幻情節,ChatGPT等聊天機械人可被用作犯罪工具,安全護欄形同虛設,直接威脅其他人的性命。當AI成為暴力放大器,社會必須正視,科企若繼續以「創新」為名規避責任,無異於將公眾安全置於危險邊緣。
除了幫助或鼓勵真實世界暴力外,反AI情緒延伸亦成為促進暴力的一大要因。阿爾特曼住宅,本月內先後遭人投擲汽油彈及開槍射擊,正正標誌一般人的反AI情緒,已經從抽象恐懼升級為現實威脅。
科企亟須防範 挽回公眾信任
美國《紐約時報》社論認為,事件傳遞出一個令人恐懼的訊息:「科技業幾乎毋須為失誤承擔任何責任……當憤怒沒有建設性的宣洩途徑時,只需要有一個精神失常的人,就能夠將其轉變成危險的事件」,呼籲科企真正遵守讓技術服務大眾的承諾。
這種反AI情緒的極端化、暴力化,長遠更加值得我們警惕。民眾眼見AI公司漠視倫理、推卸責任,坐擁巨額利潤,自然會產生強烈不公感。科企必須主動承擔失誤責任、投入實質安全研發,並跟當局、社會共同行動,強化AI治理透明度與獨立審計,否則公眾信任將會徹底崩解。
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。




















