

商傳媒|林昭衡/綜合外電報導
【俄亥俄州哥倫布訊】隨著人工智慧(AI)技術日益整合至軍事應用,關於AI自主武器系統的倫理爭議逐漸浮現。國防公司 Anduril Industries (安杜瑞爾工業) 創辦人帕爾默·拉奇(Palmer Luckey)日前受訪時表示,該公司正以負責任的態度開發AI武器,並強調人類在決策過程中仍須扮演核心角色,為AI系統的行動負起最終責任。
拉奇指出,他對未來國防技術最擔憂的其中一項,是過多的權力落入私人企業手中。他強調,不樂見企業高層對美國外交及軍事政策的實質影響力,超越民選總統或國會。他認為,新興科技伴隨部署者的責任,相關決策應保留給能被選民究責的民選官員。
對於AI系統可能做出攸關生死的決定,拉奇坦言,人類必須逐漸習慣這樣的概念。他表示:「我們需要非常謹慎地部署這些系統,並為其行動承擔責任。」他進一步解釋,許多現有的武器系統精準度遠低於AI導向系統。例如,傳統的反車輛地雷無法區分軍用車輛與載有學童的校車,他認為從道德制高點而言,這種無法辨識目標的地雷並無優勢。
拉奇的觀點是,真正的辯論點並非「有沒有武器」或「智慧武器」,而是「愚笨武器」或「智慧武器」的選擇。他主張,若科技能有效減少戰爭中的平民傷亡,即使自主決策的概念令人不安,也應當加以應用。然而,拉奇也再三強調,人類必須始終對這些系統的結果負責。「責任必須歸於人類,」他說,「人們需要為這些系統的使用承擔責任。」
拉奇同時提到,目前已存在自主防禦系統,例如在偵測到威脅時能比人類反應更快的自動化防空系統。他認為,即使這些系統因誤判而擊落民用飛機,仍會啟動調查程序,釐清部署是否得當、風險評估是否完善,並追究相關責任。
移除自動化功能可能反而在戰場上製造弱點,拉奇解釋,一旦通訊或指揮控制系統受損,若缺乏自主系統,敵人可能趁機發動攻擊。他認為,未來挑戰的關鍵在於如何平衡強大的科技發展與負責任的監管機制。
