文旅影音生成導入「合成動態資料」!DynaVid框架提升動作表現,影視AI突破資料瓶頸

影音生成導入「合成動態資料」!DynaVid框架提升動作表現,影視AI突破資料瓶頸

影音生成導入「合成動態資料」!DynaVid框架提升動作表現,影視AI突破資料瓶頸

【記者蔡富丞/柯妮妮 綜合報導】影音AI生成技術正面臨一項關鍵挑戰:缺乏高品質「動態資料」。最新提出的DynaVid框架,透過引入合成運動數據(synthetic motion data),讓模型在訓練階段就能學習更精細的動作與物理變化,成為近期技術發展焦點。

過去影音模型多依賴真實影片資料,但高強度動作場景(如劇烈運動或複雜鏡頭運動)在資料集中相對稀缺,導致生成結果容易出現不自然或失真。DynaVid則透過電腦圖學技術產生光流與動態資訊,補足這項缺口,使模型能更準確學習動作細節。 

這種方法的突破,在於將「資料生成」納入模型訓練流程,使AI不再完全依賴現有素材,而能透過模擬產生更完整的學習內容。

對影視應用而言,這代表動作場景的生成能力將大幅提升,無論是運動畫面、角色動作或鏡頭轉換,都能呈現更流暢與自然的效果。

整體來看,影音AI正從「模型優化」轉向「資料工程」。當資料本身可以被設計與強化,未來技術競爭將不再只看模型架構,而是誰能建立更完整的資料生成與訓練體系。

想讓你的品牌在新聞媒體曝光? 立即點我加入官方LINE@免費諮詢

熱門新聞