精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

生成式 AI 研究通過引導式圖像結構控制為創(chuàng)作者賦能

NVIDIA英偉達 ? 來源:未知 ? 2023-07-24 19:30 ? 次閱讀

新的研究正在通過一個文本引導的圖像編輯工具來提升生成式 AI 的創(chuàng)造性潛能。這項創(chuàng)新性的研究提出了一個使用即插即用擴散特征(PnP DFs)的框架,可引導實現(xiàn)逼真而精確的圖像生成。通過這項研究,視覺內(nèi)容創(chuàng)作者只需一張?zhí)崾緢D片和幾個描述性詞語,就能將圖像轉(zhuǎn)化為視覺內(nèi)容。

可靠輕松編輯并生成內(nèi)容的能力有助于藝術家、設計師和創(chuàng)作者不斷擴展創(chuàng)意的可能性。這也將為那些依賴動畫、視覺設計和圖像編輯的行業(yè)賦能。

這項研究的首席作者、魏茲曼科學研究院博士研究生 Narek Tumanyan 表示:“最新的文本到圖像生成模型標志著數(shù)字內(nèi)容創(chuàng)作進入了一個新時代。然而,將它們應用于現(xiàn)實世界的主要挑戰(zhàn)在于缺乏用戶可控性,這在很大程度上局限于‘僅通過輸入文本來引導圖像生成’。我們的工作是最早為用戶提供圖像布局控制權的方法之一。”

生成式 AI 的最新突破為開發(fā)強大的文本到圖像模型提供了新方法。然而,復雜性、模糊性以及對定制內(nèi)容的需求限制了當前渲染技術的發(fā)展。

這項研究引入了一種新方法,使用 PnP DFs 來改進圖像編輯和生成過程,使創(chuàng)作者對最終產(chǎn)物有更大的控制權。

研究人員從一個簡單的問題入手:擴散模型如何表現(xiàn)并捕捉圖像的形狀或輪廓?研究探索了圖像在生成過程中不斷演變的內(nèi)部表征,并研究了這些表征如何對形狀和語義信息進行編碼。

這種新方法通過理解如何在預訓練的文本到圖像模型中編碼空間信息來控制生成的圖像布局,而無需訓練新的擴散模型或?qū)ζ溥M行微調(diào)。在生成過程中,模型從引導圖像中提取擴散特征,并將其注入到整個過程中的每一個步驟,從而對新圖像的結構進行精細控制。

通過融合這些空間特征,擴散模型可以完善新圖像,使其與引導結構相匹配。它會反復進行此過程,更新圖像特征,直到生成一張既保留引導圖像布局、又與文本提示相匹配的最終圖像。

作者寫道:“這就產(chǎn)生了一種簡單而有效的方法,即從引導圖像中提取的特征直接注入到轉(zhuǎn)化圖像的生成過程中,無需進行訓練或微調(diào)。”

這種方法為更先進的可控生成和操作方法鋪平了道路。

視頻. 在 2023 年國際計算機視覺與模式識別會議(CVPR)上展示的“文本驅(qū)動的圖像到圖像翻譯的即插即用擴散特征”研究概述

研究人員使用 cuDNN 加速的 PyTorch 框架在單個 NVIDIA A100 GPU 上開發(fā)并測試了這個 PNP 模型。該團隊表示,GPU 的大容量使他們能夠?qū)W⒂陂_發(fā)方法。作為 NVIDIA 應用研究加速器計劃的參與者,這些研究人員獲得了一塊 A100 GPU。

該框架部署在 A100 上,能夠在大約 50 秒內(nèi)從引導圖像和文本轉(zhuǎn)換為一個新圖像。

該過程不僅有高效,而且可靠,能準確地生成令人驚嘆的圖像。除圖像外,它還適用于轉(zhuǎn)化草圖、繪圖和動畫,并能修改照明、色彩和背景。

圖 1.該方法的示例結果,保留了引導折紙圖像的結構,同時與目標提示的描述相匹配(來源:Tumanyan, Narek 等人/CVPR 2023)

他們的方法還優(yōu)于現(xiàn)有的文本到圖像模型,在保留引導布局和偏離其外觀之間實現(xiàn)了卓越的平衡。

圖 2.示例結果,將該模型與 P2P、DiffuseIT、SDedit 和 VQ+CLIP 模型進行三種不同噪聲水平的比較(來源:Tumanyan, Narek 等人/CVPR 2023)

然而,該模型確實存在一些局限性。當編輯任意顏色的圖像區(qū)域時,它的表現(xiàn)并不理想,因為該模型無法從輸入圖像中提取語義信息。

目前,研究人員正在致力于將這種方法擴展到文本引導的視頻編輯中。同時,該研究還證明對于其他利用擴散模型分析圖像內(nèi)部表征的研究也具有重要價值。

例如,有一項研究正在利用該團隊的研究成果來改進計算機視覺任務,例如語義點對應。另一項研究則專注于擴展文本到圖像生成的控制,包括物體的形狀、位置和外觀。

這項研究已在 GitHub 上開源。

點擊“閱讀原文”,或掃描下方海報二維碼,在 8 月 8日聆聽NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 SIGGRAPH 現(xiàn)場發(fā)表的 NVIDIA 主題演講,了解 NVIDIA 的新技術,包括屢獲殊榮的研究,OpenUSD 開發(fā),以及最新的 AI 內(nèi)容創(chuàng)作解決方案。


原文標題:生成式 AI 研究通過引導式圖像結構控制為創(chuàng)作者賦能

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3749

    瀏覽量

    90861

原文標題:生成式 AI 研究通過引導式圖像結構控制為創(chuàng)作者賦能

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    生成AI工具作用

    生成AI工具是指那些能夠自動生成文本、圖像、音頻、視頻等多種類型數(shù)據(jù)的人工智能技術。在此,petacloud.
    的頭像 發(fā)表于 10-28 11:19 ?183次閱讀

    商湯日日新大模型體系持續(xù)升級,為全行業(yè)創(chuàng)作者提供新質(zhì)生產(chǎn)力

    AIGC帶來的可能性不僅為創(chuàng)作者提供了廣闊的創(chuàng)作空間,也帶來了嶄新的藝術形式和語言。
    的頭像 發(fā)表于 09-26 10:18 ?420次閱讀

    Freepik攜手Magnific AI推出AI圖像生成

    近日,設計資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑
    的頭像 發(fā)表于 08-30 16:23 ?1097次閱讀

    索尼電影攝影機助力創(chuàng)作者實現(xiàn)影像夢想

    索尼一直致力于通過創(chuàng)新技術,忠實還原創(chuàng)作者的意圖,憑借在廣播電視及專業(yè)影像業(yè)務中深厚的技術積累,助力創(chuàng)作者實現(xiàn)影像夢想,用創(chuàng)意和科技的力量感動世界。
    的頭像 發(fā)表于 08-16 10:54 ?656次閱讀

    如何用C++創(chuàng)建簡單的生成AI模型

    生成AI(Generative AI)是一種人工智能技術,它通過機器學習模型和深度學習技術,從大量歷史數(shù)據(jù)中學習對象的特征和規(guī)律,從而能夠
    的頭像 發(fā)表于 07-05 17:53 ?757次閱讀

    商湯發(fā)布《2024生成AI教育未來》白皮書

    生成AI正在各個行業(yè)中展現(xiàn)出巨大的應用前景。在關系國計民生的教育行業(yè),生成AI能夠催生哪些創(chuàng)
    的頭像 發(fā)表于 06-29 09:48 ?780次閱讀

    Runway發(fā)布Gen-3 Alpha視頻生成模型

    專為電影和圖像內(nèi)容創(chuàng)作者提供生成AI工具的Runway公司近日宣布,其最新的Gen-3 Alpha視頻
    的頭像 發(fā)表于 06-19 09:25 ?540次閱讀

    創(chuàng)作者變身知識智能體,AI時代的“超級個體”

    無Agent不創(chuàng)作:為什么知識智能體是創(chuàng)作者的人生杠桿?
    的頭像 發(fā)表于 04-23 09:26 ?1307次閱讀
    <b class='flag-5'>創(chuàng)作者</b>變身知識智能體,<b class='flag-5'>AI</b>時代的“超級個體”

    生成AI手機出貨量或?qū)w速增長,市場份額提升顯著

    同時,反轉(zhuǎn)點還預期,至2027年,生成AI智慧型手機的市場保有量將超過10億部。按照其定義,生成AI
    的頭像 發(fā)表于 04-16 16:55 ?601次閱讀

    京東十億現(xiàn)金及十億流量鼓勵原創(chuàng)作者和優(yōu)質(zhì)內(nèi)容機構入駐

    首先,針對涵蓋數(shù)碼3C、家電家居、母嬰、寵物、時尚、運動、美妝個護、健康、車品等20余個創(chuàng)作領域的達人們,京東將給予現(xiàn)金補貼。達到招募標準的創(chuàng)作者,單個周期內(nèi)單個賬戶最高可領取3萬元現(xiàn)金創(chuàng)作補貼,且同時享受視頻播放補貼和帶貨傭金
    的頭像 發(fā)表于 04-10 14:19 ?453次閱讀

    NVIDIA Edify多模態(tài)架構升級,引領視覺生成AI新紀元

    NVIDIA近日宣布,其用于視覺生成AI的多模態(tài)架構Edify迎來重大更新,為開發(fā)者和視覺內(nèi)容提供商帶來前所未有的新功能。其中,3D資產(chǎn)生成功能的引入,極大地提升了
    的頭像 發(fā)表于 03-27 10:22 ?416次閱讀

    微軟收購Inflection AI,將其技術授給創(chuàng)作者

    Inflection AI 隨后發(fā)表聲明,稱他們將在 Microsoft Azure 上部署 Inflection-2.5 工具套件,這將助力廣大創(chuàng)作者使用這項技術。同時,他們也承諾在可預見的未來,將在其他各大云計算平臺上推廣其模型及服務。
    的頭像 發(fā)表于 03-21 10:13 ?497次閱讀

    亞馬遜云科技助力沐瞳應用生成AI技術打造卓越游戲體驗 業(yè)務決策

    北京2024年2月21日?/美通社/ -- 亞馬遜云科技宣布,上海沐瞳科技有限公司(以下簡稱"沐瞳")應用亞馬遜云科技Amazon Bedrock等生成AI服務,為玩家打造卓越的游戲體驗并
    的頭像 發(fā)表于 02-22 09:25 ?402次閱讀

    NVIDIA 在 CES 2024 上展示游戲、創(chuàng)作生成 AI 和機器人領域的創(chuàng)新成果

    席卷 CES,為游戲玩家和內(nèi)容創(chuàng)作者帶來各種性能強大的新工具。 ? 在 CES 展會開始之前,NVIDIA 發(fā)表了一場重磅演講,重點介紹了將為游戲和應用帶來逼真角色的生成 AI 模型
    發(fā)表于 01-09 09:17 ?341次閱讀
    NVIDIA 在 CES 2024 上展示游戲、<b class='flag-5'>創(chuàng)作</b>、<b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 和機器人領域的創(chuàng)新成果

    Omniverse 資訊速遞 | 應用案例、創(chuàng)作者故事、OpenUSD 最新視頻等你來解鎖!

    在本期 「Omniverse 資訊速遞」 中,Omniverse 用戶和開發(fā)者將了解到: Omniverse 應用案例與創(chuàng)作者故事 OpenUSD 最新視頻 Omniverse?應用案例與創(chuàng)作者故事
    的頭像 發(fā)表于 12-04 20:20 ?548次閱讀
    Omniverse 資訊速遞 | 應用案例、<b class='flag-5'>創(chuàng)作者</b>故事、OpenUSD 最新視頻等你來解鎖!