Meta創新產品與私隱疑慮 (方保僑)
早前榮獲Meta邀請,到訪其位於美國加州的Menlo Park總部,出席一個關注全球私隱問題的研討會。Meta作為科技界巨頭,提供的服務不只是社交網絡,更加積極發展各式各樣的新科技產品,其中包括混合實境(Mixed Reality, MR)眼罩、智能眼鏡及人工智能(AI)等。

但隨着這些高新科技的出現,Meta在多個領域上亦遇到不少私隱疑慮,研討會環繞以下問題深入討論:
1. 混合實境
Meta推出了第三代的Quest 3 MR眼罩,在虛擬世界裏提供沉浸式體驗,也設有擴增實境(AR)的功能,讓大家輕易進入元宇宙。然而,這是否意味着Meta正在收集用戶於使用Quest 3時的數據?元宇宙內的一舉一動,是否受本地及其他國家私隱條例管制?

2. 智能眼鏡
Meta與Ray-Ban推出第二代智能眼鏡Meta Smart Glasses,拍照和錄影的解像度更高,也可以利用其進行Facebook或Instagram的串流直播。不過,功能增強的背後,有否好好保護用家和其他人的私隱?如何令周遭被拍攝的市民,得知自己正在「被錄影」中?

3. 廣告策略
Meta旗下Facebook和Instagram都依賴廣告收入,利用用戶數據提供更具針對性的廣告固然可以增加廣告效益,但從私隱角度看,這也引起不少疑慮。究竟用戶有多了解自己的數據被使用的細節?這是近年來大家非常關注的問題。
4. Meta AI技術
宣布推出生成式人工智能技術Meta AI,打造的NLLB-200是首個可針對200種不同語言,提供先進翻譯的單一人工智能模型,並已在每種語言的廣泛評估中獲得驗證。然而,這項技術會否過度解讀我們的情感,或者收集過多個人資料或商業機密,而成為私隱風險呢?
Meta表示,相信人工智能應該造福社會,因此會致力改善負責任的人工智能(Responsible AI),確保Meta的人工智能對大眾和社會作出有益的使命推動。Meta將透過與專業人士、政策利益相關者和有實際經驗人士定期合作,不斷構建和測試方法,促使Meta AI的機器學習系統設計和使用有承擔和負責任。
Meta每項新科技產品都帶來革命性的突破,惟新技術同時衍生新私隱疑慮。用戶在享受科技造就的便利外,也必須提高警覺,確保私隱不受侵犯。對Meta來說,除了要關注產品的創新度,亦需要重視用戶的私隱保護,與決策者和資料保護專家合作,以符合用戶期望,這樣才能取得大眾信任。
更多方保僑文章:
支持EJ Tech


Related Posts
Latest News
-
盜播隱患多 安心睇英超攻略(林國誠)
英格蘭超級足球聯賽(英超)一向是全球最矚目的足球舞台,本港球迷早已急不及待迎接下星期六(16日)新球季的揭幕。
- Posted August 8, 2025
- 0
-
AI法律研究|中大夥騰訊推動AI法律研究
香港中文大學與騰訊(00700)簽署「人工智能法律研究合作和科技人才培養的合作框架安排」,以及「香港中文大學法律學院—騰訊研究院網絡法論壇」相關合作備忘錄。
- Posted August 8, 2025
- 0
-
谷歌搜尋|谷歌:AI概覽推高搜尋次數
美國科技巨擘谷歌(Google)副總裁、搜尋部門主管里德(Elizabeth Reid),最近撰文討論搜尋引擎導入人工智能(AI)功能後的影響。
- Posted August 8, 2025
- 0
-
老花眼藥水|眼藥水紓緩老花 效力達10小時
由美國製藥公司LENZ Therapeutics生產、首款用於改善老花的「乙醯克利定」(Aceclidine)眼藥水,已獲得美國食品及藥物管理局(FDA)批准,將於2025年第四季上市。
- Posted August 8, 2025
- 0
-
AI報告|43%港企目前採用AI代理
美國企業自動化及人工智能(AI)軟件公司UiPath,最近委託國際數據公司(IDC)發表最新報告《代理式自動化:開展現代企業協作新篇章》,發現43%香港企業正使用AI代理。
- Posted August 8, 2025
- 0
-
拒AI訓練|環球影業片尾警告 禁供AI訓練
影視娛樂企業環球影業(Universal Studios)在近期上映的電影作品,如《侏羅紀世界:重生》、真人版《馴龍記》與《壞蛋聯盟2》等,加入有關拒絕被用作人工智能(AI)訓練用途的警告字句。
- Posted August 8, 2025
- 0
-
Gemini爆漏洞|遭植入惡意指令 用戶輸入Thanks即觸發 遙控家電竊取定位
在美國拉斯維加斯召開的Black Hat USA網絡安全會議,有以色列安全研究人員發表論文,列舉14種藉「間接提示注入」(Indirect Prompt Injection)操縱Gemini的攻擊手法,標榜可遙控多項智能家居設備,在現實世界製造混亂。
- Posted August 8, 2025
- 0