多模態視訊生成技術突破,Web3如何吃到這口紅利?

多模態視訊生成技術近期取得顯著突破,從純文字生成演進至文字、影像、音訊的全鏈路整合,為Web3帶來新機會。以下是關鍵技術案例與影響:

  • 技術突破案例

    • 位元組跳動EX-4D框架:單眼視訊轉自由視角4D內容,使用者認可度70.7%。
    • 百度「繪想」平台:一張圖生成10秒「電影級」影片,實際效果待8月Pro版驗證。
    • Google DeepMind Veo:實現4K視訊與環境音同步生成,解決語義層面音畫匹配難題。
    • 抖音ContentV:80億參數模型2.3秒生成1080p影片,成本3.67元/5秒,複雜場景品質待提升。
  • 技術價值與成本優化

    • 模組化協作取代單一超大模型,如EX-4D拆解任務為深度估計、視角轉換等模組,降低技術複雜度。
    • 分層生成、快取復用等策略大幅壓縮成本,如ContentV成本降至3.67元/5秒。
  • 應用衝擊

    • 傳統影片製作重資產模式(設備、後期等)被AI簡化為Prompt驅動,降低技術與資金門檻,轉向創意競爭。
  • Web3紅利

    • 算力需求轉向多樣化組合,分佈式閒置算力與專業微調模型可能受益。
    • 專業資料標註(場景描述、音效等)需求增長,Web3激勵機制可吸引攝影師、3D藝術家貢獻數據。
    • 模組化協作趨勢與去中心化平台需求契合,算力、數據、模型或形成強化飛輪,推動Web3與Web2 AI融合。
總結

作者:Haotian

除了AI 在地化「下沉」之外,AI 賽道近段時間最大的變化莫過於:多模態視訊生成的技術突破了,從原先支援純文字生成視訊演變成文字+ 影像+ 音訊的全鏈路整合生成技術。

隨便說幾個技術突破案例,大家感受下:

1)位元組跳動開源EX-4D 框架:單眼視訊秒變自由視角4D 內容,使用者認可度達70.7%。也就是說,給一個普通視頻,AI 能自動生成任意角度的觀看效果,這在以前需要專業的3D 建模團隊才能搞定;

2)百度「繪想」平台:一張圖生成10 秒視頻,宣稱可以達到「電影級」品質。但不是由行銷包裝誇大的成分,要等8 月份的Pro 版本更新後實際看效果;

3)Google DeepMind Veo:可以達到4K 視訊+ 環境音的同步產生。關鍵技術亮點是「同步」能力的達成,之前都是視頻和音頻兩套系統拼接,要能做到真正語義層面的匹配需要克服較大的挑戰,比如復雜場景下,要做到畫面中走路動作和腳步聲的對應音畫同步問題;

4)抖音ContentV:80 億參數,2.3 秒生成1080p 視頻,成本3.67 元/5 秒。老實說這個成本控制的還可以,但目前生成品質看,遇到複雜的場景還差強人意;

為什麼說這些案例在視訊品質、生成成本、應用場景等方面的突破,價值和意義都很大?

1.技術價值突破方面,一個多模態視訊生成的複雜度往往是指數級的,單幀影像生成大概10^6 個像素點,視訊要保證時序連貫性(至少100 幀),再加上音訊同步(每秒10^4 個採樣點),還要考慮3D 空間一致性。

綜合下來,技術複雜度可不低,原本都是一個超大模型硬剛所有任務,據說Sora 燒了數萬張H100 才具備的視頻生成能力。現在可以透過模組化分解+ 大模式分工協作來實現。例如,位元組的EX-4D 其實是把複雜任務拆解成:深度估計模組、視角轉換模組、時序插值模組、渲染最佳化模組等等。每個模組專門做一件事,然後透過協調機製配合。

2.成本縮減面向:背後其實推理架構本身的優化,包括分層生成策略,先低解析度生成骨架再高分辨增強成像內容;快取復用機制,就是相似場景的複用;動態資源分配,其實就是根據具體內容複雜度調整模型深度。

這樣一套優化下來,才會有抖音ContentV 的3.67 元/5 秒的結果。

3.應用程式衝擊方面,傳統影片製作是重資產遊戲:設備、場地、演員、後期,一個30 秒廣告片幾十萬製作費很正常。現在AI 把這套流程壓縮到Prompt+ 幾分鐘等待,能實現傳統拍攝難以達到的視角和特效。

這樣一來就把原本影片製作存在的技術和資金門檻變成了創意和美學,可能會促進整個創作者經濟的再洗牌。

問題來了,說這麼多web2AI 技術需求端的變化,跟web3AI 有啥關係呢?

1.首先,算力需求結構的改變,以前AI 拼算力規模,誰有更多同質化的GPU 集群誰就贏,但多模態視頻生成需求的是多樣化的算力組合,對於分佈式的閒置算力,以及各個分佈式微調模型、算法、推理平台上都可能產生需求;

2.其次,資料標註的需求也會加強,產生一個專業級影片需要:精準的場景描述、參考影像、音訊風格、攝影機運動軌跡、光照條件等等都會成為專業的資料標註新需求,用web3 的激勵方式,可以刺激攝影師、音效師、3D 藝術家等提供專業的資料素,用專業垂類的資料標註增強AI 影片產生的能力;

3.最後,值得一說的是,當AI 從過去集中式大規模資源調配逐漸趨於模組化協作本身就是一種去中心化平台的新需求。屆時算力、數據、模型、激勵等共同組合形成自我強化的飛輪,進而帶動web3AI 和web2AI 場景的大融合。

分享至:

作者:链上观

本文為PANews入駐專欄作者的觀點,不代表PANews立場,不承擔法律責任。

文章及觀點也不構成投資意見

圖片來源:链上观如有侵權,請聯絡作者刪除。

關注PANews官方賬號,一起穿越牛熊
推薦閱讀
18分鐘前
45分鐘前
1小時前
2小時前
2小時前
2小時前

熱門文章

行業要聞
市場熱點
精選讀物

精選專題

App内阅读