當(dāng)前位置:首頁 >  科技 >  IT業(yè)界 >  正文

智象未來兩項研究入選ICCV 2025,發(fā)布兩項視覺生成突破性成果

 2025-07-18 09:50  來源: 互聯(lián)網(wǎng)   我來投稿 撤稿糾錯

  阿里云優(yōu)惠券 先領(lǐng)券再下單

近日,智象未來團(tuán)隊兩項創(chuàng)新成果入選ICCV 2025,分別聚焦于圖像生成與視頻增強兩個方向,全面展示了其在生成式AI技術(shù)上的突破與領(lǐng)先。

在圖像生成方面,智象未來團(tuán)隊提出了全新去噪掩碼自回歸生成范式De-MAR,解決了自回歸模型在視覺生成中的關(guān)鍵瓶頸。自回歸模型雖在語言領(lǐng)域大獲成功,但在圖像生成中存在細(xì)節(jié)表現(xiàn)力不足、推理速度慢等痛點。De-MAR框架通過雙重令牌優(yōu)化機(jī)制,創(chuàng)新性引入擴(kuò)散頭與去噪頭模塊:擴(kuò)散頭利用交叉注意力捕捉全局上下文,提升掩碼區(qū)域預(yù)測精度;去噪頭動態(tài)優(yōu)化已知區(qū)域令牌,減少誤差累積。實驗顯示,De-MAR在ImageNet和MS-COCO數(shù)據(jù)集上,F(xiàn)ID指標(biāo)達(dá)1.47和5.27的頂尖水平,生成速度較DiT-XL/2快45%,打破高質(zhì)量與高效率不可兼得的困境,生成圖像細(xì)節(jié)更豐富、偽影更少。

在視頻增強方面,團(tuán)隊則推出了創(chuàng)新的生成式視頻畫質(zhì)增強框架GenVE,攻克傳統(tǒng)方法細(xì)節(jié)缺失難題。其核心在于雙重對齊機(jī)制:通過圖像擴(kuò)散模型生成語義參考,確保全局布局一致;借助局部感知交叉注意力模塊,精準(zhǔn)遷移參考圖像的紋理細(xì)節(jié)至視頻。同時,多重增強策略提升模型魯棒性:噪聲增強平衡質(zhì)量與保真度,時間增強強化幀間連貫性,掩碼策略提升特征利用率。在YouHQ40、VideoLQ等數(shù)據(jù)集上,GenVE的MUSIQ、DOVER等指標(biāo)全面領(lǐng)先,能生動還原毛發(fā)、衣物褶皺等細(xì)節(jié),使視頻畫面更自然流暢。

這兩項成果分別發(fā)表于ICCV 2025 論文《Denoising Token Prediction in Masked Autoregressive Models》和《Aligning Global Semantics and Local Textures in Generative Video Enhancement》,為視覺生成技術(shù)開辟新路徑,推動高質(zhì)量、高效率的多模態(tài)內(nèi)容生成邁向?qū)嵱没?,未來有望在?chuàng)意設(shè)計、影視制作等領(lǐng)域廣泛應(yīng)用。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
智象未來

相關(guān)文章

熱門排行

信息推薦