商傳媒防範AI生成程式碼潛藏漏洞 Alice攜手Lovable強化軟體安全

防範AI生成程式碼潛藏漏洞 Alice攜手Lovable強化軟體安全

商傳媒|葉安庭/綜合外電報導

為因應人工智慧(AI)系統生成程式碼及自主運作所衍生的潛在安全風險,AI資安公司Alice與AI開發平台Lovable於本週宣布建立合作夥伴關係。雙方將透過進階紅隊測試,強化AI系統的韌性與防禦能力。

近年來,AI技術在編寫程式碼、建構應用程式及發布內容方面的發展,為網路安全帶來前所未有的挑戰。這類AI系統具備解釋語言、推斷意圖及生成機率性輸出的能力,但也因此容易被提示注入(prompt injection)或間接操縱攻擊所利用,導致非預期行為。

Alice脫胎於2018年成立、專注於辨識與阻斷有害網路活動的信任與安全公司ActiveFence。隨著AI系統操縱和濫用議題日益突出,ActiveFence擴大了業務範圍並更名為Alice,致力於保障人們用於創造、協作及互動的通訊科技(communicative technologies)安全。目前,Alice的服務已涵蓋全球逾30億用戶,並與十家頂尖AI模型公司中的七家建立合作關係。其服務涵蓋AI系統的完整生命週期,包括部署前的對抗性紅隊測試與部署後的運行時防護措施。

Lovable平台讓用戶能透過與AI的自然語言互動,快速建構全端應用程式和網站。該平台在推出首年即吸引用戶建立超過2500萬個專案。根據此次合作計畫,Alice將對Lovable的AI基礎設施進行結構化對抗測試,模擬模糊指令、間接提示及合法互動中潛藏的惡意意圖等濫用情境。合作目標是深入研究Lovable系統在面對惡意壓力時的行為模式,並利用測試結果強化防護措施、完善產品政策並提升系統韌性。

Alice執行長Noam Schwartz強調,隨著AI功能不斷進步,相關風險也隨之增加。企業不僅應專注於內容審核,更必須從一開始就確保生成與營運網路服務的AI系統具備足夠的韌性。Lovable的信任、安全與政策負責人Alejandra Arreola Ruiz表示,與Alice的合作能讓Lovable主動模擬真實世界的濫用情境,進一步強化用戶保護。此合作也反映出產業趨勢,顯示AI系統正從單純的內容生成,轉向更為主動的網路瀏覽、摘要、推薦及直接發布等角色。

想讓你的品牌在新聞媒體曝光? 立即點我加入官方LINE@免費諮詢

熱門新聞