精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

JD和OPPO的研究人員們提出了一種姿勢引導(dǎo)的時(shí)尚圖像生成模型

nlfO_thejiangme ? 來源:lq ? 2019-08-02 14:50 ? 次閱讀

時(shí)尚總在引領(lǐng)潮流。

人工智能、增強(qiáng)現(xiàn)實(shí)、可穿戴、虛擬試妝等技術(shù)的加持下,時(shí)尚行業(yè)特別是在線時(shí)尚行業(yè)獲得了飛速的發(fā)展。為了吸引客戶更多的目光、更棒的視覺體驗(yàn)、更好地展現(xiàn)商品,高清大圖、模特多角度擺拍已經(jīng)成了服裝、箱包、鞋類、美妝等線上商家的宣傳標(biāo)配。在網(wǎng)上購物時(shí),大家都想看看模特衣服在各種角度姿勢下的樣子,但是越多越全面的姿勢擺拍也就意味著越大的投入。為了降低宣傳成本,很多研究開始聚焦于如何合成高質(zhì)量的逼真圖像。

在這篇文章中來自北卡羅來納大學(xué)、JD和OPPO的研究人員們提出了一種姿勢引導(dǎo)的時(shí)尚圖像生成模型,可以基于模特當(dāng)前姿勢,生成出其他各種不同姿勢下的相同著裝的新圖像!也許在這樣技術(shù)的幫助下,模特再也不用辛苦一分鐘拍二十個(gè)動(dòng)作了~

生成新姿勢下的時(shí)尚圖像

研究人員的主要目的在于訓(xùn)練一個(gè)生成模型,將模特在當(dāng)前姿勢上的圖像遷移到其他的目標(biāo)姿勢上去,實(shí)現(xiàn)對(duì)于衣著等商品的全面展示。

這一模型主要由生成器和判別器構(gòu)成,與先前工作不同的是這一模型架構(gòu)中包含了兩個(gè)不同的判別器!其中生成器由兩個(gè)編碼器構(gòu)成,分別用于從圖像和對(duì)應(yīng)的動(dòng)作關(guān)鍵點(diǎn)特征圖進(jìn)行編碼,而解碼器則用于從動(dòng)作和衣著的特征中合成目標(biāo)圖像。對(duì)于判別器來說,除了判定生成圖像是否逼真外、還需要判定動(dòng)作與生成圖像的連續(xù)性以保證生成圖像動(dòng)作的連續(xù)性和魯棒性。

模型的主要架構(gòu),生成器的編碼器包含了對(duì)于圖像的編碼器Ei和對(duì)動(dòng)作的編碼器Ep,基于U-Net和bi-LSTM共同構(gòu)建而成,而兩個(gè)判別器分別用于判定圖像的真?zhèn)尾⒈WC生成圖像與動(dòng)作間的連續(xù)性。

時(shí)尚圖像生成器

生成器中主要包含了兩個(gè)編碼器和一個(gè)解碼器用于處理圖像和對(duì)應(yīng)姿勢,生成器探索了輸入圖像的視覺語義特征和位姿信息,并生成對(duì)應(yīng)姿勢下的新圖像。圖像編碼器:圖像編碼器的目標(biāo)是從單張或多張圖像中湖區(qū)語義編碼信息。研究人員首先使用了ResNet作為主干網(wǎng)絡(luò)抽取不同尺度的特征,包括紋理、顏色、邊緣線條信息等。隨后將這些特征輸入到雙邊長短時(shí)記憶網(wǎng)絡(luò)(bc-LSTM)中用于從相同衣著不同視角的模特圖像中抽取共同的特征,將不同種類的圖像特征進(jìn)行轉(zhuǎn)換,同時(shí)對(duì)不同特征下的背景和噪聲進(jìn)行處理。最終得到了可以表達(dá)圖像視覺語義信息的編碼Ci,用于后續(xù)圖像的生成。位姿編碼器:模型同時(shí)需要位姿數(shù)據(jù)來為生成圖像進(jìn)行引導(dǎo),研究人員利用了18個(gè)關(guān)鍵點(diǎn)來表示人體位姿,用不同顏色的直線相連并以RGB的格式進(jìn)行表示。通過U-Net的架構(gòu)和3*3的卷積從位姿圖中抽取高層次語義特征Cp并在解碼過程中通過跳接層連接進(jìn)行特征共享。解碼器:其主要目的是通過圖像編碼Ci 和動(dòng)作編碼Cp重建出逼真的圖像。首先將圖像編碼與位姿編碼的編碼拼接在一起,并基于U-Net架構(gòu)和跳接層將視覺語義信息與動(dòng)作編碼信息匹配起來,進(jìn)行有效的圖像生成。判別器:其主要目標(biāo)是引導(dǎo)模型生成比先前模型更逼真圖像。在訓(xùn)練過程中研究人員利用兩個(gè)判別器來同時(shí)進(jìn)行對(duì)抗訓(xùn)練,主要采用了與PatchGAN類似的實(shí)現(xiàn)。其中Di用于判別生成圖像是否逼真,與先前的模型類似;而Dp則用于判定生成圖像與對(duì)應(yīng)動(dòng)作的連續(xù)性。Dp的輸出是真實(shí)圖像與對(duì)應(yīng)位姿和這一位姿下生成的圖像,用于判定圖像是否與位姿匹配,它對(duì)于生成與位姿對(duì)應(yīng)的時(shí)尚圖像具有重要的作用,能幫助網(wǎng)絡(luò)生成更為復(fù)雜的動(dòng)作姿勢,同時(shí)保持連續(xù)性和魯棒性。

結(jié)果展示

通過DeepFashion和Market-1501數(shù)據(jù)的訓(xùn)練后研究人員得到了不錯(cuò)的結(jié)果。

Deep Fasion 數(shù)據(jù)集

Market-1501數(shù)據(jù)集

生成的結(jié)果與先前方法的比較,其中S和M代表了單張和多張圖像輸入的生成結(jié)果:

在數(shù)據(jù)集上的表現(xiàn)還不錯(cuò),從源圖像生成了新的姿勢:

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1113

    瀏覽量

    40453
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1076

    瀏覽量

    40281
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3032

    瀏覽量

    48374

原文標(biāo)題:從姿勢到圖像——基于人體姿勢引導(dǎo)的時(shí)尚圖像生成算法

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    一種圖像語義分層處理框架,可以實(shí)現(xiàn)像素級(jí)別的圖像語義理解和操縱

    這多虧了密歇根大學(xué)和谷歌大腦的研究人員,他們提出了一種新的圖像語義處理分層框架,首先根據(jù)圖像中給定對(duì)象的邊界框,學(xué)習(xí)
    的頭像 發(fā)表于 08-27 08:52 ?7013次閱讀

    美國普渡大學(xué)和哈佛大學(xué)的研究人員出了項(xiàng)新發(fā)明 新...

    據(jù)物理學(xué)家組織網(wǎng)報(bào)道,美國普渡大學(xué)和哈佛大學(xué)的研究人員出了項(xiàng)極為應(yīng)景的新發(fā)明:一種外形如同顆圣誕樹
    發(fā)表于 02-03 20:30

    研究人員提出了一種柔性可拉伸擴(kuò)展的多功能集成傳感器陣列

    研究人員提出了一種柔性可拉伸擴(kuò)展的多功能集成傳感器陣列,成功將電子皮膚的探測能力擴(kuò)展到7,實(shí)現(xiàn)溫度、濕度、紫外光、磁、應(yīng)變、壓力和接近等多種外界刺激的實(shí)時(shí)同步監(jiān)測。
    的頭像 發(fā)表于 01-24 15:15 ?7119次閱讀
    <b class='flag-5'>研究人員</b><b class='flag-5'>提出了</b><b class='flag-5'>一種</b>柔性可拉伸擴(kuò)展的多功能集成傳感器陣列

    特倫托大學(xué)與Inria合作:使用GAN生成人體的新姿勢圖像

    使用GAN(對(duì)抗生成網(wǎng)絡(luò))生成人體的新姿勢圖像研究人員提出的可變形跳躍連接和最近鄰損失函數(shù),更
    的頭像 發(fā)表于 01-29 16:34 ?9439次閱讀
    特倫托大學(xué)與Inria合作:使用GAN<b class='flag-5'>生成</b>人體的新<b class='flag-5'>姿勢</b><b class='flag-5'>圖像</b>

    OpenAI的研究提出了一種新的生成模型,能快速輸出高清、真實(shí)的圖像

    為下游任務(wù)提供了有用的隱藏空間。自回歸模型的隱藏層有著位置的邊緣分布,使其更難對(duì)數(shù)據(jù)進(jìn)行正確操作。在GAN中,數(shù)據(jù)點(diǎn)經(jīng)常不能直接表現(xiàn)在隱藏空間中,因?yàn)樗鼈儧]有編碼器,可能無法支持?jǐn)?shù)據(jù)分布。在可逆生成模型和VAE上就沒有這種情況。
    的頭像 發(fā)表于 07-12 08:43 ?8158次閱讀

    以色列研究人員開發(fā)出了一種能夠識(shí)別不同刺激的新型傳感系統(tǒng)

    據(jù)麥姆斯咨詢報(bào)道,海法以色列理工學(xué)院的研究人員開發(fā)出了一種能夠識(shí)別并區(qū)分不同刺激的創(chuàng)新型傳感系統(tǒng)。該系統(tǒng)基于折紙藝術(shù),結(jié)合了以色列理工學(xué)院開發(fā)的智能墨水材料。
    發(fā)表于 05-21 08:45 ?857次閱讀

    研究人員提出了系列新的點(diǎn)云處理模塊

    為了探索這些問題的解決辦法、來自倫敦大學(xué)學(xué)院的研究人員提出了系列新的點(diǎn)云處理模塊,從效率、信息共享和點(diǎn)云卷積操作等方面進(jìn)行了研究,得到了
    的頭像 發(fā)表于 08-02 14:44 ?2970次閱讀
    <b class='flag-5'>研究人員</b><b class='flag-5'>們</b><b class='flag-5'>提出了</b><b class='flag-5'>一</b>系列新的點(diǎn)云處理模塊

    Facebook的研究人員提出了Mesh R-CNN模型

    研究的目標(biāo)是通過單張圖像輸入,對(duì)圖像中的物體進(jìn)行檢測、獲取不同物體的類別、掩膜和對(duì)應(yīng)的三維網(wǎng)格,并對(duì)真實(shí)世界中的復(fù)雜模型進(jìn)行有效處理。在
    的頭像 發(fā)表于 08-02 15:51 ?3783次閱讀
    Facebook的<b class='flag-5'>研究人員</b><b class='flag-5'>提出了</b>Mesh R-CNN<b class='flag-5'>模型</b>

    研究人員出了一種新的基于深度學(xué)習(xí)的策略

    蘇黎世聯(lián)邦理工學(xué)院的研究人員最近推出了一種新的基于深度學(xué)習(xí)的策略,該策略可以在不需要大量真實(shí)數(shù)據(jù)的情況下在機(jī)器人中實(shí)現(xiàn)觸覺傳感。在arXiv上預(yù)先發(fā)表的篇論文中概述了他們的方法,該方
    的頭像 發(fā)表于 03-26 15:47 ?2519次閱讀

    研究人員開發(fā)出了一種稱為LB-WayPtNav-DH的機(jī)器人導(dǎo)航新框架

    加州大學(xué)伯克利分校的研究人員最近開發(fā)了一種新的框架,該框架可以增強(qiáng)辦公室,房屋或博物館等室內(nèi)環(huán)境中人類的機(jī)器人導(dǎo)航能力。他們的模型在arXiv上預(yù)先發(fā)表的篇論文中
    發(fā)表于 04-09 11:18 ?906次閱讀

    研究人員開發(fā)了一種新穎的機(jī)器學(xué)習(xí)管道

    研究人員通過一種特殊的神經(jīng)網(wǎng)絡(luò)模型,它以“基本塊”(計(jì)算指令的基本摘要)形式訓(xùn)練標(biāo)記的數(shù)據(jù),以自動(dòng)預(yù)測其持續(xù)時(shí)間使用給定的芯片執(zhí)行以前看不見的基本塊。結(jié)果表明,這種神經(jīng)網(wǎng)絡(luò)模型的性能要
    的頭像 發(fā)表于 04-15 16:42 ?1768次閱讀

    微軟亞洲研究院的研究提出了一種模型壓縮的新思路

    近日,來自微軟亞洲研究院自然語言計(jì)算組的研究提出了一種與顯式地利用蒸餾損失函數(shù)來最小化教師模型
    的頭像 發(fā)表于 11-24 09:48 ?1563次閱讀

    一種基于改進(jìn)的DCGAN生成SAR圖像的方法

    針對(duì)SAR圖像識(shí)別軟件,通過改進(jìn) DCGAN模型生成器與單判別器對(duì)抗的結(jié)構(gòu),采用多生成器與單判別器進(jìn)行對(duì)抗,設(shè)計(jì)了控制各生成
    發(fā)表于 04-23 11:01 ?21次下載
    <b class='flag-5'>一種</b>基于改進(jìn)的DCGAN<b class='flag-5'>生成</b>SAR<b class='flag-5'>圖像</b>的方法

    MIT研究人員提出了一種制造軟氣動(dòng)執(zhí)行器的新方法

    麻省理工學(xué)院 (MIT) 的研究人員創(chuàng)造了一種新的制造技術(shù),可以制造出更具成本效益的軟氣動(dòng)執(zhí)行器。
    的頭像 發(fā)表于 05-06 16:38 ?1516次閱讀
    MIT<b class='flag-5'>研究人員</b><b class='flag-5'>提出了</b><b class='flag-5'>一種</b>制造軟氣動(dòng)執(zhí)行器的新方法

    生成式 AI 研究通過引導(dǎo)圖像結(jié)構(gòu)控制為創(chuàng)作者賦能

    新的研究正在通過個(gè)文本引導(dǎo)圖像編輯工具來提升生成式 AI 的創(chuàng)造性潛能。這項(xiàng)創(chuàng)新性的研究
    的頭像 發(fā)表于 07-24 19:30 ?482次閱讀