You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

善用CODA 打造可信賴AI助手(黃岳永)

By on July 15, 2025

本文作者黃岳永為香港科技大學副教授兼高級顧問(創業),為《信報》撰寫專欄「科網人語」。

對於人工智能(AI)產生 「幻覺」(hallucination),相信大家都不會感到陌生,這種現象是指AI生成看似合理,實際卻為錯誤的資訊。簡單來說,就是「一本正經地胡說八道」。我們用戶期待的當然是,AI能成為科幻電影《鐵甲奇俠》(Iron Man)中,如Jarvis般的智能管家,而非隨時會給予錯誤資訊的大話專家。

我們用戶期待的當然是,AI能成為科幻電影《鐵甲奇俠》中,如Jarvis般的智能管家。(網上圖片)

當前的AI工具,如DeepSeek R1、GPT-4o、Perplexity Labs和Gemini,功能都非常強大,但共同的缺陷在於──「一味靠估」。因為AI主要透過統計和機率來生成答案,而非真正理解問題,這使其可能會跳過關鍵步驟,甚至產生過度自信的結論,這正是AI「幻覺」的根源。

AI的運作基於統計而非邏輯,如果不控制這個過程,系統就會很高興地為你做決定。因此在使用AI的過程中,建議採用「CODA」框架──Capture(蒐集)、Organise(組織)、Distill(提煉)與Action(行動)。這一方法強調前期「思考」階段的充分準備,能使後續的「執行」更加高效。

AI之所以會「胡說八道」,八成是第一步Capture已經做錯,輸入問題不清,資料雜亂無章,「求求其其」搜尋。因此,我避免讓AI隨意搜尋資料,盡量不使用那種亂抓網路資料的AI,例如Grok和DeepSeek,而ChatGPT有時也會出現透明度不足的狀況,故建議使用能提供可查證引用資料的Perplexity Pro。若是用作分析影片、文件或Podcast,Gemini也是不錯的選擇。

俗話說「一粒老鼠屎壞了一鍋粥」,若能在第一步做好,後續過程便會順利許多。資訊整理的過程中,真正的思考發生在「組織」與「提煉」階段。這時,NotebookLM成為我的主要工具。我會將書籍、PDF、網站和YouTube逐字稿等資料輸入,然後開始與NotebookLM對話,詢問專家間的共識,或是比較不同來源的矛盾,甚至請它摘要特定章節,聚焦於幾個主題。

有時,我會啟動Podcast模式,NotebookLM會以語音讀出摘要,宛如私人導讀員。我在聆聽的同時,也會提出問題,要求它重複某些重點或比較不同來源的觀點。外人可能會覺得我在自言自語,但這種互動的思考方式卻非常有效。NotebookLM不是替我寫作的工具,而是促進我思考的夥伴,這樣的合作使我能更深入地理解和分析資訊。

最終,當完成邏輯整理,行動便自然而然地順暢。在這個CODA過程中,AI不只沒有偷工減料,還放大了我的思考能力,這也是我如何在不犧牲品質的前提下,將工作效率提升4到5倍。

想想東尼史達與Jarvis的對話,Jarvis從來不會說答案是什麼,而是提供多種選擇供其探索。(網上圖片)

想想《鐵甲奇俠》主角東尼史達(Tony Stark)與Jarvis的對話,Jarvis從來不會說答案是什麼,而是提供多種選擇供其探索,「先生,這裏有3種情況。我已經模擬過了。你想探索哪一條路呢?」AI不僅是思考的捷徑,更是增強思維的利器,這才是我對人工智能未來的信念,也是我當前與AI合作的方式。

更多黃岳永文章:

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們