商傳媒前 OpenAI 研究員揭「卡爾帕西循環」 AI 代理程式兩天完成 700 次實驗

前 OpenAI 研究員揭「卡爾帕西循環」 AI 代理程式兩天完成 700 次實驗

圖/本報AI製圖(示意圖)

商傳媒|責任編輯/綜合外電報導

前 OpenAI 核心成員,現為獨立 AI 研究員暨 Eureka Labs 創辦人的安德烈·卡爾帕西(Andrej Karpathy),日前在社群平台 X 上分享一項引人注目的實驗成果,他開發的「autoresearch」系統,讓一個 AI 程式代理在短短兩天內,執行了 700 次實驗,成功優化了小型語言模型(LLM)的訓練流程,此舉被業界稱為「卡爾帕西循環」(Karpathy Loop),並預示著 AI 研發模式的重大變革。

根據安德烈·卡爾帕西的描述,這項實驗的核心是讓一個 AI 程式代理負責改善小型語言模型的訓練過程。該代理程式持續運作兩天,共完成了 700 次不同的實驗,並從中發現了 20 項可提升訓練速度的優化方法。當這些優化策略被應用於一個規模稍大但仍屬小型的語言模型時,訓練時間成功縮短了 11%。

這項成果很快引起 Shopify 執行長托比亞斯·呂特克(Tobias Lütke)的關注。呂特克也在 X 上分享,他運用「autoresearch」系統來優化公司內部數據的 AI 模型,讓代理程式一夜之間執行了 37 次實驗,最終實現了高達 19% 的效能提升。

「autoresearch」系統之所以廣受討論,在於它與科幻作品中「自我改進型 AI」的概念有著相似之處。部分 AI 安全研究人員曾擔憂,AI 系統若能實現「遞迴式自我改進」(recursive self-improvement),持續優化自身程式碼與訓練方式,可能導致 AI 能力快速超越人類智慧,引發所謂的「智慧爆炸」。

對此,卡爾帕西澄清,「autoresearch」系統中的 AI 代理程式並非直接優化其自身的訓練機制,而是針對另一個規模較小、複雜度較低的 AI 模型,調整其訓練程式碼及初始神經網路設定。不過,他強調這項實驗對未來 AI 實驗室的運作方式影響深遠,將加速 AI 的研究進程,並預期「所有大型語言模型前沿實驗室都將採行此道」,將其視為「最終的魔王戰」。

科技出版物《The New Stack》的首席分析師 Janakiram MSV 將卡爾帕西的這項創舉命名為「卡爾帕西循環」,並歸納其三個核心要素:一個能修改單一檔案的代理程式、一個可客觀評估並作為優化目標的單一指標,以及每個實驗皆設有固定的時間限制。

儘管有批評意見認為,卡爾帕西的「autoresearch」與行之多年的「自動機器學習」(AutoML)技術有相似之處,AutoML 也透過優化循環與實驗來尋找最佳的 AI 資料、模型架構並進行參數調校。但卡爾帕西反駁,傳統 AutoML 系統,例如神經網路架構搜尋(neural architecture search),其效能與其開發的系統相較之下微不足道。他強調,「autoresearch」採用的是「真正的 LLM,能夠編寫任意程式碼,從過往實驗中學習,並能存取網路」,兩者不在同一層次。

展望未來,卡爾帕西設想下一階段的「autoresearch」將從單一代理程式的連續改進,發展成為多個 AI 代理程式能同時、大規模且非同步地協同工作,探索不同的優化路徑和實驗。他表示,目標不再是模擬一位博士研究生的工作,而是要模擬整個研究社群的運作模式。

想讓你的品牌在新聞媒體曝光? 立即點我加入官方LINE@免費諮詢

熱門新聞