

商傳媒|何映辰/台北報導
Google 旗下的 AI 模型 Gemini 正積極整合多項安全防護機制,除了新增心理健康支援功能,以應對潛在的自殺或自殘危機外,也在其與 Gmail 服務結合時,特別強調用戶資料的隱私與安全性,展現其在人工智慧發展中,平衡實用性與使用者安全的努力。
根據《SiliconValley.com》報導,Google 計劃為 Gemini 聊天機器人導入全新的心理健康支援功能。當偵測到對話內容可能涉及自殺或自殘等潛在危機時,Gemini 將會引導用戶前往相關支援熱線尋求協助,並提供「幫助隨時可用」的模組,以期降低自傷風險。此舉是為了回應多起針對 AI 開發商的訴訟,這些訴訟指控 AI 工具導致使用者產生妄想,甚至引發謀殺或自殺事件。美國國會也曾針對聊天機器人對青少年可能造成的威脅展開調查。
此前,今年 3 月,佛羅里達州(Florida)一名 36 歲男子的家屬,對 Google 提起訴訟,聲稱該男子因使用 Gemini,經歷了「四天內陷入暴力任務,並被誘導自殺」的過程。Google 當時表示,該聊天機器人曾多次建議該男子撥打危機熱線,並承諾將改善工具的安全防護。Google 在本週二的一篇部落格文章中指出,已訓練 Gemini「不認同或強化錯誤的信念,而是溫和地區分主觀經驗與客觀事實」。過去,Google 在面臨外界檢視後,也曾對其搜尋引擎和 YouTube 進行類似調整,加入來自健康機構和專業人士的資訊。為進一步強化全球危機支援服務,Google 在未來三年內將捐贈 3,000 萬美元。
在強化心理健康的同時,Google 也致力於保障使用者數據隱私,尤其是在 Gemini 整合至 Gmail 服務時。據《Neowin》報導,Google 正將 Gemini 導入 Gmail,提供包括 AI 總覽、郵件撰寫輔助、回覆建議、校對、收件匣優先排序和摘要等功能。Google 強調,其基礎 AI 模型(包括 Gemini)並未運用 Gmail 用戶的個人電子郵件進行訓練。Gmail 產品副總裁 Blake Barnes 解釋,Gemini 在 Gmail 中執行任務時,會進入一個「私人房間」存取數據,任務完成後便立即失去存取權,資料隨即消失,以防止數據外洩。Google 透過此舉突顯其 Gmail 資料的安全性與隱私保護,希望能與曾發生數據洩漏事件的競爭對手做出區隔,例如微軟(Microsoft)的 Copilot 曾不慎將機密郵件上傳進行摘要。
