防範人工智能失控(車品覺)
白宮警告,美國政府必須在人工智能仍依賴人類的時候,開始思考如何監管和利用這項強大技術。大部分人也贊同,美國政府須在這方面有所作為,但如何具體落實尚未清晰。人工智能實際的問題愈來愈多,且迫在眉睫,例如谷歌自動駕駛汽車一旦出意外,誰該負責任?車廠抑或乘客?數據提供者抑或演算法工程師?我就見過例子,因為某個表格欄位資料意外遺失,令自動化系統演算法判斷失誤,導致一家企業損失了幾千萬元;最後追究責任時,才發現這只是來自一個產品經理的微小疏忽。
數據輸入問責制愈趨重要
我們都知道,想讓機器學習成功,首先要給它清楚的目標,然後向其「餵食」大量數據,但讓人擔心的是,人類在輸入目標和設計上,可能會把既有的偏見,灌輸進人工智能的思維。實際例子便出現過,某大平台向男性推送高薪工作的機會,遠高於女性;另據某國的警察系統判斷,非裔美國人比白人更容易被當成潛在慣犯。若要由人工智能決定誰可獲得貸款、工作或假釋,那麼對輸入這些系統的數據,進行某程度的問責,以確保準確性,將會變得愈來愈重要。
法律界也指出,帶有人工智能的產品創造者們, 有義務證明其產品合乎公共安全。毫無疑問,人工智能已帶來政策上的挑戰,比如在自動化技術變得更加複雜、更加智能的同時,如何繼續確保其可控性?雖然人工智能已在某些方面打敗人類,但很多系統的應用仍依賴人類指示方向,有能力完成和自主完成大不相同。當然,有些科學家也曾經說:「看吧,如果有一天,製造機器人的是另一個聰明機器人的時候,我們就應該要小心了。」
現今,美國政府已在想辦法監管人工智能,例如無人機和癌症探測分析儀等。白宮內的科技政策辦公室,亦正在聯合多個政府機關,依據事實制訂監管辦法。諸位不要以為,這只是政府煩惱的問題,因為我們可能很快會見到某CEO下台是因為一個關鍵演算法失誤。我絕非危言聳聽,如今複雜的科技,已讓傳統的管理體系捉襟見肘。大數據、人工智能、機器學習等都是新生事物,水能載舟亦能覆舟,趁人類仍掌控大局時先打好基礎、做好防範乃當務之急。
更多車品覺文章:
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。
Related Posts
Latest News
-
聖誕「黃金漫遊」攻略(林國誠)
行程是否順利,很多時候不在於坐什麼機艙、酒店住什麼級數,而是在陌生地方落機之後,手機能否立即穩定上網:地圖導航、翻譯、訂餐廳、叫車、網上Check-in、向家人報平安,全都要靠連線支援。
- Posted December 12, 2025
- 0
-
GPT接入Adobe|指引用戶執相
美國軟件開發商Adobe宣布,把Express、Photoshop和Acrobat的部分功能,添加到聊天機械人ChatGPT中,用戶毋須切換應用程式,即可編輯圖像、設計圖形及管理PDF。
- Posted December 12, 2025
- 0
-
創科從業員|2023年達5.5萬 年增18%
紅杉中國旗下創科公益機構「創科香港基金會」(Hong Kong X Foundation)昨推出《香港創科人才指數2025》研究報告。
- Posted December 12, 2025
- 0
-
技術標準化|科企聯手組基金 訂AI代理標準
非牟利組織Linux基金會成立新小組Agentic AI Foundation(AAIF),推動人工智能代理(AI Agent)技術標準化。
- Posted December 12, 2025
- 0
-
最細AI超級電腦|美初創研發 創健力士紀錄
美國硬科技人工智能(AI)初創Tiiny AI Inc.發布個人AI超級電腦Tiiny AI Pocket Lab,為全球首個可運行1200億參數(120B)大型語言模型的口袋級設備,具備可媲美GPT-4o的智能水準。
- Posted December 12, 2025
- 0
-
Meta模型擬改閉源|目標下季登場 傳不滿DS取用架構 兼受Llama 4失利打擊
美國科企Meta一直主張研發開源模型,惟近日傳出其人工智能(AI)策略逆轉。財經頻道CNBC報道,Meta正開發下一代大型語言模型,內部代號為「Avocado」(牛油果),以封閉模型取代原有的開源模型Llama,目標在2026年第一季推出。
- Posted December 12, 2025
- 0
-
傳承創新並行 延續獨特價值(湛家揚博士)
香港及亞洲零售市場正以驚人速度轉型。市民居住空間有限,租金高昂,生活節奏急促;與此同時,數碼平台徹底改變了消費習慣,便利、個人化及多元選擇成為新常態。
- Posted December 11, 2025
- 0

















