

商傳媒|葉安庭/綜合外電報導
人工智慧(AI)技術在人道援助領域的應用日益廣泛,不僅大幅提升了危機應對效率,但也同時引發了對倫理道德及隱私權的深切關注。在過去,AI 解決方案多用於軍事情報與作戰,例如美國國防部在 2017 年 4 月由當時的副國防部長 Bob Work 成立的演算法戰鬥跨職能小組,啟動了「Maven計畫」,旨在將 AI 與機器學習整合至軍事行動中。此後,五角大廈已實施逾 800 個 AI 專案,中央情報局(CIA)也開發了 300 種機器學習工具。
近年來,包括世界糧食計劃署(WFP)、國際救援委員會(IRC)以及聯合國難民署(UNHCR)等國際人道組織,也紛紛擁抱 AI 技術。這些組織看中 AI 在危機管理中帶來的效率優勢,例如聯合國難民署在 2022 年利用名為「Project Jetson」的 AI 模型,透過氣候、匯款和市場價格數據,預測索馬利亞的被迫流離失所情況,並提前應對衝突升級。世界糧食計劃署也開發了模型,用於預測國際衝突地區的糧食不安全水平,以便預防性地應對營養不良問題。在災害預防方面,AI 技術也展現其潛力,如 Google 的洪水預測系統和加州地震預警系統,皆透過機器學習模型與雲端數據處理來預測自然災害。
AI 衛星影像助災區評估 隱私權成道德難題
特別在面對複雜的人道危機時,AI 技術發揮了關鍵作用。在 2023 年 10 月 9 日以色列軍隊對加沙地帶實施「全面圍困」後,當地遭受了大規模破壞,造成約 9,000 人死亡、25,000 人受傷,以及高達七成居民流離失所。聯合國衛星中心(UNOSAT)便運用 AI 分析衛星影像,精確繪製災區地圖,辨識需要重建的區域並制定策略。加沙地帶的 AI 報告也追蹤了被毀壞的基礎設施,並繪製了平民流離失所模式,對於援助分配和損害緩解提供了寶貴資訊。
然而,AI 衛星影像技術的應用也引發了道德爭議。高解析度技術能夠監控精確行動、辨識臉部並產生私人財產的詳細影像,這可能侵犯平民的隱私權。聯合國大會(UNGA)對 AI 發展增強政府、企業及個人監控、攔截和數據收集能力表示擔憂,並將「非法或任意監控」定義為在未經同意情況下侵犯隱私權的「高度侵入性行為」。
過時數據風險與人為審查必要性
AI 預測模型的準確性也面臨挑戰,主要爭議點在於使用過時數據建構模型,可能導致預測不準確或失去關聯性。例如,據報導,美國對伊朗米納卜(Minab)一所小學的「誤擊」事件,便嚴重依賴基於過時衛星影像建構的 AI 預測模型。這凸顯了過度依賴自動化技術的風險,因為過時的 AI 模型難以考慮人類行為、文化規範及當地環境動態的變化,並可能帶有舊有偏見。人道組織強調,若缺乏人工審查,AI 解決方案中的錯誤資訊可能反而損害其旨在保護的社群。這顯示在 AI 輔助決策過程中,人為的監督和道德考量是不可或缺的一環。
