AI問診崛起 斷錯症責任難釐清(郝本尼)
原文刊於信報財經新聞「CEO AI⎹ EJ Tech——智情筆報」
近期多間人工智能(AI)巨頭,紛紛把目光投向醫療健康領域。OpenAI正式發布ChatGPT Health,主打協助用戶理解與管理其健康問題;Anthropic公布Claude for Healthcare,可根據自己的電子病歷、健康紀錄提問。
跟先前輔助醫生診治的AI工具不同,這類產品定位明顯更像醫療助手,目標是向用戶提供私人化健康諮詢。表面看來,它們可以賦權病人、減輕醫療體系負擔,但又勢必模糊專業判斷與一般建議的界線。日後病患如果轉向依賴AI建議,沒有專業醫護人員把關,相關責任恐難釐清。
延醫後續成本更高
此外,病人利用AI自行判讀症狀,有可能誤判病情而延後就醫,導致錯過黃金時機,增加後續治療成本。早於AI流行之前,很多人就自行上網搜索症狀,甚至拿着相關結果去找醫生、期待對方證實。若AI工具可以深入分析私人病歷,這種情況將更普遍,令醫生要花更多時間解釋。
同時,AI公司始終不是專業醫療機構,因此傳統醫患間的保密協定,以及保護患者私隱及數據安全的法規,未必直接適用。在這種情況下,用戶選擇分享自身病歷,隨時淪為「買家自負」,一旦資料外洩,或者數據遭挪用至其他用途,苦主恐難獲得保障。
彌補醫患缺關懷現狀
儘管存在上述隱憂,AI醫療工具崛起,其實卻有一個很重要好處。長期以來,由於醫療資源、人手不足,醫患關係總被簡化為昂貴的單向指示,病人的疑慮與感受未獲真正照顧。AI就算只能提供有限、保守,以至不負責的建議,卻能做到今天醫療體系常常忽略的事:完整聽完病人說話。
醫療理應充滿人文關懷,以病人的安全與尊嚴為首,並非追求效率或數據。正如研究機構Advisory Board分析師阿德霍爾德(Ty Aderhold)所言,病人轉向AI求助,本質是對現行體系無法滿足其需求的回應。與其警惕AI取代醫護人員,不如反思為何人文關懷被視作可供壓縮的成本。
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。



















