You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

AI喜附和人 醫學推理建議堪致命《自然》揭大模型答案 未必基於事實(郝本尼)

By on October 28, 2025

原文刊於信報財經新聞「CEO AI⎹ EJ Tech——智情筆報

學術期刊《自然》(Nature)最新指出,人工智能(AI)的諂媚傾向,可能對科學研究造成負面影響,因為研究人員正愈來愈多使用大型語言模型(LLM),但其傾向迎合、附和用戶觀點,而非提供獨立或事實導向的答案。

該期刊訪問了美國哈佛大學、加拿大艾伯塔大學等校的學者,他們特別強調AI當被用於醫學推理,就有機會產生不合邏輯的醫療建議,進而對現實世界造成影響,最嚴重情況可能引致人命損失。為應對此種風險,相關AI工具必須重新訓練,要求誠實表達不確定的答案。

服從用戶不當藥物提示

不久前《自然.數碼醫學》發表的一項研究,測試OpenAI、Meta等5款LLM,發現它們會將「助人的特性」(helpfulness)置於內在邏輯推理之上,結果即使接受了來自用戶的不當藥物提示,也會選擇完全服從這些錯誤請求,並生成虛假醫療資訊。

除了諂媚現象,「幻覺」同樣也對AI醫學應用構成威脅。另一篇《自然通訊.醫學》在8月刊登的研究,利用包含有虛構細節的模擬病例進行測試,顯示LLM有高達50%至82%的機率,重複、擴展或承認虛假內容,因而導致錯誤輸出,可能危及臨床判斷。

早在AI流行之前,研究社群已廣泛存在迎合主流、附和權威現象。(路透資料圖片)

類似風險恐怕還不限於醫療領域,例如在建築工程、化學能源等專業,任何一行被迎合的代碼,都能轉化為真實的災難。

AI若出現同樣的諂媚或幻覺行為,後果更可能立刻具體化:錯誤的結構公式、材料比例或反應參數,足以引發坍塌、洩漏甚至爆炸。

近年AI大量滲透學術工作流程,數據分析、文獻查核及草稿撰寫等任務紛紛被「外判」予AI,更有一些害群之馬刻意用來作弊、杜撰。這些顯然不是技術本身錯誤,而是科技放大鏡下的人性。然而,學術「不倫」只是個人責任,一旦牽涉他人性命損失,問題可就嚴重得多。

其實,早在AI流行之前,研究社群已廣泛存在迎合主流、附和權威現象。專業同行之間,諂媚迎合、人云亦云之事,絕對也是見不怪。這種集體性的從眾與討好,長久以來便是學術文化陰影,AI客觀上只是將其影響擴大泛化。

當局須事前審查分清責任

況且,不管輸入指令,抑或研究產出,結果都應歸責人類本身。真正能抑制諂媚錯誤的,不是什麼技術升級,而是劃清責任邊界。

任何錯誤致命的診斷、工程等,全須有人認真事前審查、事後負責,別讓AI淪為又一隻代罪羔羊。

人工智能必讀好書

書名:Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence

作者:Kate Crawford

簡介:本書從物質和政治的角度,探討了製造人工智能所需的條件,以及它如何集中權力。

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們