
隨著生成式人工智慧(Generative AI)快速滲透產業與公共領域,技術進化的速度與風險同步放大,促使各國政府加速建立監管與安全機制。日本政府於 2024 年正式成立 人工智慧安全研究所(AI Safety Institute,簡稱 AISI),定位為國家級 AI 安全中樞,目標是在全球 AI 競逐升溫之際,為技術發展設立明確的「安全護欄」。
AISI 首任所長村上明子(Akiko Murakami)近日受訪時指出,當前 AI 技術的演化速度,較過往資訊科技快上 20 至 30 倍,若企業與政府仍沿用「先開發、後修補」的模式,恐將導致風險累積至難以回收的程度。
AI 進化速度失衡 AISI 扮演國家級「壓力測試」角色
村上明子表示,生成式 AI 的模型規模、算力需求與更新頻率,已進入以「週」為單位的競爭節奏,傳統治理框架難以即時因應。AISI 的核心任務,在於為大型語言模型(LLM)建立系統化的安全評估流程,針對偏見、歧視、錯誤資訊、深度偽造(Deepfake)與潛在違法引導等風險進行測試。
她強調,AISI 不僅是研究單位,更是一個橫跨產官學的資訊交換平台,特別是為具備技術能力、但風險管理經驗不足的新創與成長型企業,提供可操作的安全指引與評估標準。
監管是阻力還是助力?產業與政策的拉鋸
在推動 AI 安全框架的過程中,日本產業界亦出現不同聲音。部分新創與科技企業憂心,過度嚴格的規範可能削弱日本在全球 AI 市場的競爭力,特別是在與美國、中國進行算力與模型競賽的背景下。
對此,政策觀察人士指出,日本政府試圖採取「軟法為主、硬法為輔」的治理策略。村上明子則認為,清楚、可預測的安全標準,反而能降低企業的法規不確定性,避免因風險事件引發的信任危機與商譽損失,長期而言有助於提升國際競爭力。
醫療與金融成高風險場域 安全評估走向實戰
AISI 的評估工作已延伸至醫療與金融等高度敏感領域。在醫療應用中,AI 輔助診斷雖可提升效率,但若出現資料偏誤或「幻覺現象」,可能引發嚴重醫療糾紛;在金融市場,演算法交易與風控模型的不透明性,亦可能放大系統性風險。
村上明子指出,AISI 正開發自動化安全測試工具,透過模擬惡意使用者行為,檢驗模型是否可能洩漏個資、提供錯誤建議或被操縱。她強調,AI 安全不能僅仰賴企業自律,而需有可驗證的技術與第三方機制支撐。
國際競合升溫 日本爭取 AI 安全話語權
目前,全球 AI 安全治理逐漸形成以美國、英國、日本為核心的合作網絡。英國率先成立 AISI,美國與日本隨後跟進,並在 G7 等多邊框架中協調安全原則與評估方法。
產業分析指出,日本在精密製造、機器人與高可靠系統領域具備長期優勢,若能在 AI 安全標準制定上取得影響力,將有助於日系企業在工業 AI、自動駕駛與高安全門檻市場中建立差異化優勢。
生成式 AI 正快速從研究工具轉為社會基礎設施,其風險已不再僅限於技術層面,而是牽動金融穩定、公共安全與民主信任。日本成立 AISI,反映出政府試圖在創新與風險之間建立制度性平衡。
在 AI 應用全面落地的關鍵階段,安全治理是否能成為推動信任與市場成熟的助力,而非扼殺創新的枷鎖,將是日本乃至全球科技政策必須面對的長期課題。
