精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

太秀了!DeepMind推出最強表示學習模型BigBiGAN

DPVg_AI_era ? 來源:lq ? 2019-07-13 08:01 ? 次閱讀

今天,DeepMind爆出一篇重磅論文,引發學術圈熱烈反響:基于最強圖像生成器BigGAN,打造了BigBiGAN,在無監督表示學習和圖像生成方面均實現了最先進的性能!Ian Goodfellow也稱贊“太酷了!”

GAN在圖像合成方面一次次讓人們驚嘆不已!

例如,被稱為史上最強圖像生成器的BigGAN——許多人看到BigGAN生成的圖像都要感嘆“太逼真了!DeepMind太秀了吧!”

BigGAN生成的逼真圖像

這不是最秀的。今天,DeepMind的一篇新論文再次引發學術圈熱烈反響,論文題為《大規模對抗性表示學習》。

論文鏈接:

https://arxiv.org/pdf/1907.02544.pdf

在這篇論文中,DeepMind基于最先進的BigGAN模型構建了BigBiGAN模型,通過添加編碼器和修改鑒別器將其擴展到表示學習。

BigBiGAN表明,“圖像生成質量的進步轉化為了表示學習性能的顯著提高”。

研究人員廣泛評估了BigBiGAN模型的表示學習和生成性能,證明這些基于生成的模型在ImageNet上的無監督表示學習和無條件圖像生成方面都達到了state of the art的水平。

這篇論文在Twitter上引發很大反響。GAN發明人Ian Goodfellow說:“很有趣,又回到了表示學習。我讀PhD期間,我和大多數合作者都對作為樣本生成的副產品的表示學習很感興趣,而不是樣本生成本身。”

Goodfellow說:“當年我們在寫最初的GAN論文時,我的合著者@dwf(David Warde-Farley)試圖得到一些類似于BiGAN的東西,用于表示學習。5年后看到這一成果,我覺得太酷了。”

Andrej Karpathy也說:“無監督/自監督學習是一個非常豐富的領域,它將消除目前對大規模數據集的必要性.”

總結而言,這篇論文展示了GAN可以用于無監督表示學習,并在ImageNet上獲得了最先進的結果。

下面是BigBiGAN生成的一些重建樣本,可以看到,重建是傾向于強調高級語義,而不是像素級的細節。

下面,新智元帶來對這篇論文的詳細解讀。

基于BigGAN打造BigBiGAN:學習高級語義,而非細節

近年來,我們已經看到視覺數據生成模型的快速發展。雖然這些模型以前局限于模式單一或少模式、結構簡單、分辨率低的領域,但隨著建模和硬件的進步,它們已經獲得了令人信服地生成復雜、多模態、高分辨率圖像分布的能力。

直觀地說,在特定域中生成數據的能力需要高度理解所述域的語義。這一想法長期以來頗具吸引力,因為原始數據既便宜——可以從互聯網等來源獲得幾乎無限的供應——又豐富,圖像包含的信息遠遠超過典型的機器學習模型訓練用來預測的類別標簽

然而,盡管生成模型取得的進展不可否認,但仍然存在一些令人困擾的問題:這些模型學到了什么語義,以及如何利用它們進行表示學習?

僅憑原始數據就能真正理解生成這個夢想幾乎不可能實現。相反,最成功的無監督學習方法利用了監督學習領域的技術,這是一種被稱為自監督學習(self-supervised learnin)的方法。

這些方法通常涉及以某種方式更改或保留數據的某些方面,并訓練模型來預測或生成缺失信息的某些方面。

例如,Richard Zhang等人的研究(CVPR 2016)提出了一種非監督學習的圖像著色方法,在這種方法中,模型被給予輸入圖像中顏色通道的子集,并經過訓練來預測缺失的通道。

作為無監督學習手段的生成模型為self-supervised的任務提供了一個很有吸引力的替代方案,因為它們經過訓練,可以對整個數據分布建模,而不需要修改原始數據。

GAN是一類應用于表示學習的生成模型。GAN框架中的生成器是一個從隨機采樣的潛在變量(也稱為“噪聲”)到生成數據的前饋映射,其中學習信號由經過訓練的鑒別器提供,用來區分真實數據和生成的數據樣本,引導生成器的輸出跟隨數據分布。

作為GAN框架的擴展,Vincent Dumoulin等人(ICLR 2017)提出adversarially learned inference(ALI)[7],或Jeff Donahue等人(ICLR 2017)提出bidirectional GAN (BiGAN)[4]方法,這些方法通過編碼器模塊將實際數據映射到潛在數據(與生成器學習的映射相反)來增強標準GAN。

在最優判別器的極限下,[4]論文表明確定性BiGAN的行為類似于自編碼器,最大限度地降低了重建成本l?;然而,重建誤差曲面的形狀是由參數鑒別器決定的,而不是像誤差l?這樣的簡單像素級度量。

由于鑒別器通常是一個功能強大的神經網絡,我們希望它能產生一個誤差曲面,在重建時強調“語義”誤差,而不是強調低層次的細節。

BigBiGAN重建的更多圖像

論文證明了通過BiGAN或ALI框架學習的編碼器是在ImageNet上學習下游任務的一種有效的視覺表示方法。然而,它使用了DCGAN風格的生成器,無法在這個數據集上生成高質量的圖像,因此編碼器能夠建模的語義也相當有限。

在這項工作中,我們再次使用BigGAN作為生成器,這是一個能夠捕獲ImageNet圖像中的許多模式和結構的先進模型。我們的貢獻如下:

我們證明了BigBiGAN (BiGAN with BigGAN generator)與ImageNet上無監督表示學習的最先進技術相匹敵。

我們為BigBiGAN提出了一個更穩定的聯合鑒別器。

我們對模型設計選擇進行了全面的實證分析和消融研究。

我們證明,表示學習目標還有助于無條件生成圖像,并展示了無條件生成ImageNet的最先進結果。

BigBiGAN框架的結構

BigBiGAN框架的結構

BigBiGAN框架的結構如上圖所示。

聯合判別器D用于計算損失l。其輸入是data-latent pairs,可以是從數據分布和編碼器輸出采樣的,或從生成器G輸入和潛在分布采樣的?。損失l包括一元數據項和一元潛在項,以及將數據和潛在分布聯系起來的共同項。

評估和結果:表示學習、圖像生成實現最優性能

表示學習

我們現在從上述簡化學習結果中獲取基于train-val分類精度的最優模型,在官方ImageNet驗證集上得出結果,并與最近的無監督學習研究文獻中的現有技術水平進行比較。

為了進行這些比較,我們還提供了基于規模較小的ResNet-50的最佳性能GAN變種的分類結果。詳細比較結果在表2中給出。

與當前許多自監督學習方法相比,本文中采用的純基于生成模型的BigBiGAN方法在表示學習方面表現良好,在最近的無監督學習任務上的表現達到了SOTA 水平,最近公布的結果顯示,本文中的方法在使用表2的AvePool相同的表示學習架構和特征的旋轉預測預訓練任務中,將top-1精度由55.4%提高到60.8%。

表1:多個BigBiGAN變體的性能結果,在生成圖像的初始分數(IS)和Fréchet初始距離(FID),監督式邏輯回歸分類器ImageNet top-1精度百分比(Cls。)由編碼器特征訓練,并基于從訓練集中隨機抽樣的10K圖像進行分割計算,我們將其稱為“train-val”分割。

表2:在官方ImageNet驗證集上對BigBiGAN模型與最近的基于監督式邏輯回歸分類器的其他方法的對比。

表3:我們的BigBiGAN與無監督(無條件)生成方法、以及之前報告的無監督BigGAN的性能結果對比。

無監督式圖像生成

表3所示為BigBiGAN進行無監督生成的結果,與基于BigGAN的無監督生成結果做比較。請注意,這些結果與表1中的結果不同,因為使用的是數據增強方法(而非表1中的用于所有結果的ResNet樣式預處理方法)。

這些結果表明,BigBiGAN顯著提升了以IS和FID為量度的基線無條件BigGAN生成結果的性能。

圖2:從無監督的BigBiGAN模型中選擇的圖像重建結果。上面一行的圖像是真實圖像(x~Px),下面一行圖像是由G(E(x))計算出的這些圖像的重建結果。與大多數顯式重建成本(例如像素數量)不同,由(Big)BiGAN 實現隱式最小化的重建成本更多傾向于強調圖像的語義及其他更高級的細節。

圖像重建:更偏重高級語義,而非像素細節

圖2中所示的圖像重建在像素上遠達不到完美,可能部分原因是目標沒有明確強制執行重建成本,在訓練時甚至對重建模型進行計算。然而,它們可以為編碼器ε學習建模的特征提供一些幫助。

比如,當輸入圖像中包含狗、人或食物時,重建結果通常是姿勢、位置和紋理等相同特征“類別”的不同實例。例如,臉朝同一方向的另一只類似的狗。重建結果傾向于保留輸入的高級語義,而不是低級細節,這表明BigBiGAN的訓練在鼓勵編碼器對前者進行建模,而不是后者。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3595

    瀏覽量

    134158
  • 圖像
    +關注

    關注

    2

    文章

    1083

    瀏覽量

    40418
  • DeepMind
    +關注

    關注

    0

    文章

    129

    瀏覽量

    10819

原文標題:DeepMind爆出無監督表示學習模型BigBiGAN,GAN之父點贊!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    大語言模型:原理與工程時間+小白初識大語言模型

    解鎖 我理解的是基于深度學習,需要訓練各種數據知識最后生成自己的的語言理解和能力的交互模型。 對于常說的RNN是處理短序列的數據時表現出色,耳真正厲害的是Transformer,此框架被推出后直接
    發表于 05-12 23:57

    未來的AI 深挖谷歌 DeepMind 和它背后的技術

    學習從非結構化數據中學習來編寫分析報告或執行無人監督的任務。所有這些發展都為不同的公司發揮作用并證明他們的價值奠定基礎。因此,很多像DeepMind這樣的公司成立了,來繼續發展這一領
    發表于 08-26 12:04

    機器學習如何賦能風力發電?DeepMind 做了以下嘗試 精選資料推薦

    谷歌 DeepMind 博客昨日更新一篇關于機器學習如何賦能風力發電的文章,詳細介紹谷歌全球可再生能源項目中針對風電場的機器學習實驗結果,雷鋒網(公眾號:雷鋒網) AI 科技評論將之
    發表于 07-12 07:41

    !小學生都開始學習華為鴻蒙

    活到老學到老,學習是人的一生之題。鴻蒙從誕生發展至今,也有不少開發者或小白接觸鴻蒙,開始不斷探索這個新世界。但我萬萬沒想到,現在連小學生都開始加入鴻蒙的世界!在華為開發者大會上,一群小學生在“智慧
    發表于 10-29 14:41

    基于邊采樣的網絡表示學習模型

    近年來,以微博、微信、Facebook為代表的社交網絡不斷發展,網絡表示學習引起了學術界和工業界的廣泛關注.傳統的網絡表示學習模型利用圖矩陣
    發表于 12-18 10:17 ?0次下載
    基于邊采樣的網絡<b class='flag-5'>表示</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>

    DeepMind攜手Unity,加速機器學習和人工智能研究

    2014年被谷歌收購的英國人工智能公司DeepMind部門與Unity合作,加速機器學習和人工智能(AI)研究。該合作將重點關注DeepMind和其他人可用于測試和可視化實驗算法的“虛擬環境”。
    發表于 09-28 10:43 ?1345次閱讀

    谷歌、DeepMind重磅推出PlaNet 強化學習新突破

    Google AI 與 DeepMind 合作推出深度規劃網絡 (PlaNet),這是一個純粹基于模型的智能體,能從圖像輸入中學習世界模型
    的頭像 發表于 02-17 09:30 ?3307次閱讀
    谷歌、<b class='flag-5'>DeepMind</b>重磅<b class='flag-5'>推出</b>PlaNet 強化<b class='flag-5'>學習</b>新突破

    BigBiGAN問世,“GAN父”都說酷的無監督表示學習模型有多優秀?

    BigBiGAN是一種純粹基于生成模型的無監督學習方法,它在ImageNet上實現圖像表示學習
    的頭像 發表于 07-11 15:48 ?2750次閱讀

    谷歌和DeepMind研究人員合作提出新的強化學習方法Dreamer 可利用世界模型實現高效的行為學習

    近年來隨著強化學習的發展,使得智能體選擇恰當行為以實現目標的能力得到迅速地提升。目前研究領域主要使用兩種方法:一種是無模型(model-free)的強化學習方法,通過試錯的方式來學習
    發表于 03-26 11:41 ?1946次閱讀

    基于LSTM的表示學習-文本分類模型

    分類的關鍵。為了獲得妤的文本表示,提高文本分類性能,構建了基于LSTM的表示學習-文本分類模型,其中表示
    發表于 06-15 16:17 ?18次下載

    語言模型做先驗,統一強化學習智能體,DeepMind選擇走這條通用AI之路

    在智能體的開發中,強化學習與大語言模型、視覺語言模型等基礎模型的進一步融合究竟能擦出怎樣的火花?谷歌 DeepMind 給了我們新的答案。
    的頭像 發表于 07-24 16:55 ?510次閱讀
    語言<b class='flag-5'>模型</b>做先驗,統一強化<b class='flag-5'>學習</b>智能體,<b class='flag-5'>DeepMind</b>選擇走這條通用AI之路

    谷歌DeepMind發布機器人大模型RT-2,提高泛化與涌現能力

    7月28日,谷歌DeepMind推出了一款新的機器人模型Robotics Transformer 2(RT-2)。
    發表于 08-02 14:22 ?434次閱讀
    谷歌<b class='flag-5'>DeepMind</b>發布機器人大<b class='flag-5'>模型</b>RT-2,提高泛化與涌現能力

    再登Nature!DeepMind模型突破60年數學難題,解法超出人類已有認知

    用大模型解決困擾數學家60多年的問題,谷歌DeepMind最新成果再登 Nature。 作者之一、谷歌DeepMind研究副總裁Pushmeet Kohli表示: 訓練數據中不會有這個
    的頭像 發表于 12-24 21:40 ?508次閱讀
    再登Nature!<b class='flag-5'>DeepMind</b>大<b class='flag-5'>模型</b>突破60年數學難題,解法超出人類已有認知

    谷歌DeepMind推新AI模型Genie,能生成2D游戲平臺

    據報道,谷歌公司的DeepMind團隊近期發布AI模型Genie,此模型擁有多達110億個參數,能夠依據用戶提供的圖片及提示詞創建出相當完整的2D游戲場景。
    的頭像 發表于 02-27 14:53 ?730次閱讀

    谷歌DeepMind推出新一代藥物研發AI模型AlphaFold 3

    谷歌DeepMind公司近日重磅推出了一款名為AlphaFold 3的全新藥物研發AI模型,這一創新技術將為科學家們提供前所未有的幫助,使他們能更精確地理解疾病機制,進而開發出更高效的治療藥物。
    的頭像 發表于 05-10 09:35 ?370次閱讀