

商傳媒|何映辰/台北報導
近期研究顯示,與人工智慧(AI)聊天機器人如 ChatGPT、Gemini 等互動時,用戶的對話內容並非私密,且可能以多種方式被讀取與利用。此警訊提醒廣大AI使用者,在享受便利的同時,應高度關注個人隱私保護。
根據《Lifehacker》報導,史丹佛(Stanford)大學研究人員檢視了美國六家主要AI聊天機器人開發商的隱私政策,發現所有公司預設都會將用戶的聊天數據用於模型訓練。部分業者甚至會無限期保留這些聊天數據,並將其與其他消費者資訊(例如搜尋紀錄和購物資料)進行整合。儘管用戶通常可以選擇退出,不讓數據用於大型語言模型(LLM)的訓練,但仍存在由人工審核對話內容,以及長期數據儲存導致資料外洩風險升高的可能性。
專家強調,用戶應避免與AI聊天機器人分享八大類敏感資訊:
首先,登入憑證或包含憑證的文件 絕不應貼入聊天機器人。AI在生成安全密碼方面的能力不佳,用戶應改用密碼管理工具或通行密鑰。
其次,財務相關資訊 ,包括銀行對帳單、信用卡號碼、投資細節、帳號與餘額等,都不應在提示中上傳或提及。此類資訊一旦外洩,可能導致盜竊、詐騙或成為詐騙集團鎖定的目標。
第三,醫療建議或病歷資料 。AI聊天機器人無法取代專業醫療建議,上傳醫療記錄不僅暴露於潛在的數據洩露風險,也可能被用於大型語言模型的訓練。
第四,任何個人身份識別資訊(PII) ,例如姓名、地址、電子郵件、電話號碼、出生日期、社會安全號碼或護照號碼等,任何可能用於身份盜竊的資料,都應嚴禁輸入AI提示中。
第五,即使是看似無害的健康相關資訊 ,也應避免提供。AI可能透過用戶的要求(例如心臟友善食譜)推斷其健康狀況,使這些資訊可能落入保險公司手中。這也包括與性健康、用藥情況和性別肯定護理相關的資訊。
第六,AI聊天機器人並非合格的心理治療師 。在處理心理健康問題時,不應依賴AI,而應尋求專業人士協助。
第七,個人照片 應謹慎處理,尤其避免上傳包含未成年人的照片。圖像中可能包含GPS定位等中繼資料(EXIF data),建議在分享前先行去除。
第八,敏感的公司資訊 。若將含有公司機密的檔案上傳至聊天機器人,可能違反僱主規定,並增加商業機密外洩的風險。
《Lifehacker》指出,用戶應假設所有輸入到聊天機器人的內容都將被儲存,並可能被他人讀取。建議用戶應避免分享任何個人或可識別的資訊,並啟用所有可用的隱私設定,例如關閉數據分享和訓練選項,以保障自身數位足跡安全。
