允中 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI
比Nano Banana更擅長(zhǎng)P細(xì)節(jié)的圖像編輯模型來了,還是更懂中文的那種。
就像這樣,要求AI“把中間白色衣服戴口罩女生的手勢(shì)改成OK”,原圖如下:
![]()
這個(gè)名為UniWorld-V2的模型能做到完美修改。
![]()
而Nano Banana則未能成功get到提示詞的意圖。
![]()
模型背后,是兔展智能&北京大學(xué)的UniWorld團(tuán)隊(duì)的最新技術(shù)成果:
他們提出了一種名為UniWorld-R1的創(chuàng)新型圖像編輯后期訓(xùn)練框架,該框架首次將強(qiáng)化學(xué)習(xí)(RL)策略優(yōu)化應(yīng)用于統(tǒng)一架構(gòu)的圖像編輯模型,是第一個(gè)視覺強(qiáng)化學(xué)習(xí)框架。基于此,他們推出了新一代模型UniWorld-V2。
UniWorld-V2在GEdit-Bench和ImgEdit等行業(yè)權(quán)威基準(zhǔn)測(cè)試中取得了SOTA成績(jī),在綜合表現(xiàn)上超越了如OpenAI的GPT-Image-1等頂尖閉源模型。
![]()
一起來看詳細(xì)技術(shù)報(bào)告。
強(qiáng)大的中文字體掌握與精細(xì)化可控
功能上,UniWorld-V2在實(shí)際應(yīng)用中展現(xiàn)了SFT模型難以企及的精細(xì)化控制力。
中文字體掌握
在論文的“海報(bào)編輯”示例中,模型能精準(zhǔn)理解指令,并渲染出“月滿中秋”和“月圓人圓事事圓”等筆畫復(fù)雜的藝術(shù)中文字體,效果清晰、語義準(zhǔn)確。

能做到想改啥字改啥字,只需一句Prompt。

精細(xì)化空間可控
在“紅框控制”任務(wù)中,用戶可以通過畫框(如紅色矩形框)來指定編輯區(qū)域,模型能夠嚴(yán)格遵守該空間限制,實(shí)現(xiàn)“將鳥移出紅框”等高難度精細(xì)操作。

全局光影融合
模型能深刻理解“給場(chǎng)景重新打光”等指令,使物體自然融入場(chǎng)景之中,讓畫面變得更統(tǒng)一和諧,并且光影融合度極高。
![]()
核心創(chuàng)新:UniWorld-R1框架
實(shí)現(xiàn)以上功能,研究團(tuán)隊(duì)的核心創(chuàng)新是提出了UniWorld-R1框架。
傳統(tǒng)的圖像編輯模型依賴監(jiān)督微調(diào)(SFT),普遍存在對(duì)訓(xùn)練數(shù)據(jù)過擬合、泛化能力差的問題。此外,還存在面對(duì)編輯指令和任務(wù)的多樣性,缺乏通用獎(jiǎng)勵(lì)模型的瓶頸。
UniWorld-R1框架的核心優(yōu)勢(shì)在于:
首個(gè)基于強(qiáng)化學(xué)習(xí)的統(tǒng)一架構(gòu):UniWorld-R1是業(yè)內(nèi)首個(gè)基于策略優(yōu)化(RL)的圖像編輯后期訓(xùn)練框架。它采用了Diffusion Negative-aware Finetuning (擴(kuò)散負(fù)向感知微調(diào),DiffusionNFT)技術(shù),這是一種無需似然估計(jì)的策略優(yōu)化方法,訓(xùn)練更高效,并且允許使用高階采樣器。
MLLM作為免訓(xùn)練獎(jiǎng)勵(lì)模型:針對(duì)編輯任務(wù)多樣性導(dǎo)致缺乏通用獎(jiǎng)勵(lì)模型的挑戰(zhàn),UniWorld-R1開創(chuàng)性地使用多模態(tài)大語言模型(MLLM,如GPT-4V)作為統(tǒng)一的、免訓(xùn)練的獎(jiǎng)勵(lì)模型。通過利用MLLM的輸出logits(而非單一評(píng)分)來提供精細(xì)化的隱式反饋,極大地提升了模型對(duì)人類意圖的對(duì)齊能力。
如下圖所示,UniWorld-R1的pipeline主要包括三個(gè)部分:采樣、MLLM評(píng)分和DiffusionNFT,這三個(gè)部分逐步將模型與最優(yōu)策略對(duì)齊。
![]()
全面超越SOTA,分?jǐn)?shù)領(lǐng)跑
實(shí)驗(yàn)方面,研究團(tuán)隊(duì)整理了一個(gè)包含27572個(gè)基于指令的編輯樣本的數(shù)據(jù)集。
![]()
這些樣本來自LAION、LexArt和UniWorldV1。為了增強(qiáng)任務(wù)多樣性,加入了額外的文本編輯和紅框控制任務(wù),共形成九種不同的任務(wù)類型。
研究團(tuán)隊(duì)訓(xùn)練FLUX.1-Kontext [Dev]、Qwen-Image-Edit [2509]和UniWorld-V2作為基礎(chǔ)模型,并采用ImgEdit和GEdit-Bench作為測(cè)試基準(zhǔn)。前者將多種專門任務(wù)統(tǒng)一為一個(gè)通用框架以進(jìn)行全面模型比較,后者通過豐富的自然語言指令評(píng)估通用圖像編輯。
在GEdit-Bench基準(zhǔn)測(cè)試中,UniWorld-V2(基于UniWorld-R1訓(xùn)練)獲得了7.83的驚人高分,顯著優(yōu)于GPT-Image-1 [High](7.53分)和Gemini 2.0(6.32分)。在ImgEdit基準(zhǔn)上,UniWorld-V2同樣以4.49分領(lǐng)跑,超越了所有已知的開源和閉源模型。
更重要的是,UniWorld-R1框架具有極強(qiáng)的通用性。當(dāng)該框架被應(yīng)用于Qwen-Image-Edit和FLUX-Kontext等其他基礎(chǔ)模型時(shí),同樣帶來了顯著的性能提升,充分證明了其作為通用后期訓(xùn)練框架的巨大價(jià)值。
![]()
該方法顯著增強(qiáng)了所有基礎(chǔ)模型在ImgEdit基準(zhǔn)上的表現(xiàn)。對(duì)于FLUX.1-Kontext [Dev],整體分?jǐn)?shù)顯著提高,從3.71上升到4.02,超過了較強(qiáng)的Pro版本(4.00)。同樣,在應(yīng)用于Qwen-Image-Edit [2509]時(shí),該方法將其分?jǐn)?shù)從4.35提升到4.48,實(shí)現(xiàn)了開源模型中的最先進(jìn)性能,并超越了頂級(jí)閉源模型如GPT-Image-1。
除了總得分的提升之外,UniWorld-FLUX.1-Kontext在“調(diào)整”、“提取”和“移除”維度上表現(xiàn)出顯著的性能提升,而 UniWorld-Qwen-Image-Edit則在“提取”和“混合”維度上表現(xiàn)優(yōu)異。此外,UniWorld-V2達(dá)到了最佳性能。這一現(xiàn)象表明,該方法能夠解鎖和顯著提高基礎(chǔ)模型中之前未開發(fā)的潛力。
![]()
在域外GEdit-Bench上,UniWorld-R1為三種模型展示了強(qiáng)大的泛化性能。它使FLUX.1-Kontext [Dev] 模型的總分從6.00提升到6.74,表現(xiàn)超越了Pro版本(6.56)。對(duì)于Qwen-Image模型,其得分從7.54增加到7.76。同時(shí),UniWorld-V2在這一基準(zhǔn)測(cè)試中建立了新的最先進(jìn)水平,超越了所有列出的模型,包括Qwen-Image-Edit(7.56)和GPT-Image-1(7.53)。這一結(jié)果確認(rèn)該方法有效地保留和增強(qiáng)了在未見數(shù)據(jù)分布上的核心編輯能力,展示了強(qiáng)大的泛化能力。
為了全面評(píng)估,研究人員還對(duì)FLUX.1和Qwen系列進(jìn)行了人工偏好研究,參與者將本文的微調(diào)模型與其基礎(chǔ)模型和更強(qiáng)大的版本進(jìn)行比較。他們被要求在兩個(gè)維度上選擇最佳結(jié)果:指令對(duì)齊和圖像質(zhì)量。
用戶在所有標(biāo)準(zhǔn)中更傾向于選擇UniWorld-FLUX.1-Kontext而不是FLUX.1-Kontext [Dev]。此外,它在編輯能力上表現(xiàn)出較強(qiáng)的優(yōu)勢(shì),尤其是在與更強(qiáng)大的官方版本FLUX.1-Kontext [Pro]的比較中。總體而言,UniWorld-FLUX.1-Kontext因其優(yōu)越的指令遵循能力而獲得更多的喜歡,盡管官方模型在圖像質(zhì)量上稍微勝出。這證實(shí)了該方法能夠有效地引導(dǎo)模型生成更符合人類偏好的輸出。
![]()
此次發(fā)布的UniWorld-V2,是基于團(tuán)隊(duì)早先的UniWorld-V1構(gòu)建的。UniWorld-V1作為業(yè)內(nèi)首個(gè)統(tǒng)一理解與生成的模型,其開源時(shí)間領(lǐng)先于谷歌Nano Banana等后續(xù)知名模型長(zhǎng)達(dá)三個(gè)月,為多模態(tài)領(lǐng)域的統(tǒng)一架構(gòu)探索奠定了重要基礎(chǔ)。
另外,UniWorld-R1的論文、代碼和模型均已在GitHub和Hugging Face平臺(tái)公開發(fā)布,以支持后續(xù)研究。
論文地址:
https://arxiv.org/abs/2510.16888
GitHub鏈接:
https://github.com/PKU-YuanGroup/UniWorld
— 完 —
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.