精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

當前生成圖像最逼真的BigGAN被谷歌超越!造假效果更為逼真

傳感器技術 ? 來源:楊湘祁 ? 作者:電子發燒友 ? 2019-03-11 15:28 ? 次閱讀

當前生成圖像最逼真的BigGAN被超越了!

出手的,是谷歌大腦和蘇黎世聯邦理工學院。他們提出了新一代GAN:S3GAN。

它們生成的照片,都是真假難辨。

下面這兩只蝴蝶,哪只更生動?

兩張風景照片,哪張更真實?

難以抉擇也正常,反正都是假的。上面的照騙,都是左邊出自S3GAN,右邊的出自BigGAN之手。

它們還有更多作品:

至于哪些是S3GAN,答案文末揭曉。

肉眼難分高下,就用數據說話。跑個FID(Frechet Inception Distance)得分,分值越低,就表示這些照騙,越接近人類認識里的真實照片——

S3GAN是8.0分,而BigGAN是8.4分。新選手略微勝出。

你可還記得BigGAN問世之初,直接將圖像生成的逼真度提高了一個Level,引來Twitter上花樣贊賞?

如今它不止被超越,而且是被輕松超越。

“輕松”在哪呢?

S3GAN達到這么好的效果,只用了10%的人工標注數據。而老前輩BigGAN,訓練所用的數據100%是人工標注過的。

如果用上20%的標注數據,S3GAN的效果又會更上一層樓。

標注數據的缺乏,已經是幫GAN提高生成能力,拓展使用場景的一大瓶頸。如今,這個瓶頸已經幾乎被打破。

現在的S3GAN,只經過了ImageNet的實驗,是實現用更少標注數據訓練生成高保真圖像的第一步。

接下來,作者們想要把這種技術應用到“更大”和“更多樣化”的數據集中。

不用標注那么多

為什么訓練GAN生成圖像,需要大量數據標注呢?

GAN有生成器、判別器兩大組件。

其中判別器要不停地識破假圖像,激勵生成器拿出更逼真的圖像。

而圖像的標注,就是給判別器做判斷依據的。比如,這是真的貓,這是真的狗,這是真的漢堡……這是假圖。

可是,沒有那么多標注數據怎么辦?

谷歌和ETH蘇黎世的研究人員,決定訓練AI自己標注圖像,給判別器食用。

自監督 vs 半監督

要讓判別器自己標注圖像,有兩種方法。

一是自監督方法,就是給判別器加一個特征提取器 (Feature Extractor) ,從沒有標注的真實訓練數據里面,學到它們的表征 (Feature Representation) 。

對這個表征做聚類 (Clustering) ,然后把聚類的分配結果,當成標注來用。

這里的訓練,用的是自監督損失函數。

二是半監督方法,也要做特征提取器,但比上一種方法復雜一點點。

在訓練集的一個子集已經標注過的情況下,根據這些已知信息來學習表征,同時訓練一個線性分類器 (Linear Classifier) 。

這樣,損失函數會在自監督的基礎上,再加一項半監督的交叉熵損失 (Cross-Entropy Loss) 。

預訓練了特征提取器,就可以拿去訓練GAN了。這個用一小部分已知標注養成的GAN,叫做S2GAN。

不過,預訓練也不是唯一的方法。

想要雙管齊下,可以用協同訓練 (Co-Training) :

直接在判別器的表征上面,訓練一個半監督的線性分類器,用來預測沒有標注的圖像。這個過程,和GAN的訓練一同進行。

這樣就有了S2GAN的協同版,叫S2GAN-CO。

升級一波

然后,團隊還想讓S2GAN變得更強大,就在GAN訓練的穩定性上面花了心思。

研究人員說,判別器自己就是一個分類器嘛,如果把這個分類器擴增 (Augmentation) 一下,可能療效上佳。

于是,他們給了分類器一個額外的自監督任務,就是為旋轉擴增過的訓練集 (包括真圖和假圖) ,做個預測。

再把這個步驟,和前面的半監督模型結合起來,GAN的訓練變得更加穩定,就有了升級版S3GAN:

架構脫胎于BigGAN

不管是S2GAN還是S3GAN,都借用了前輩BigGAN的網絡架構,用的優化超參數也和前輩一樣。

不同的是,這個研究中,沒有使用正交正則化 (Orthogonal Regularization) ,也沒有使用截斷 (Truncation) 技巧。

△BigGAN的生成器和鑒別器架構圖

訓練的數據集,來自ImageNet,其中有130萬訓練圖像和5萬測試圖像,圖像中共有1000個類別。

圖像尺寸被調整成了128×128×3,在每個類別中隨機選擇k%的樣本,來獲取半監督方法中的使用的部分標注數據集。

最后,在128核的Google TPU v3 Pod進行訓練。

超越BigGAN

研究對比的基線,是DeepMind的BigGAN,當前記錄的保持者,FID得分為7.4。

不過,他們在ImageNet上自己實現的BigGAN,FID為8.4,IS為75,并以此作為了標準。

在這個圖表中,S2GAN是半監督的預訓練方法。S2GAN-CO是半監督的協同訓練方法。

S3GAN,是S2GAN加上一個自監督的線性分類器 (把數據集旋轉擴增之后再拿給它分類) 。

其中,效果最好的是S3GAN,只使用10%由人工標注的數據,FID得分達到8.0,IS得分為78.7,表現均優于BigGAN。

如果你對這項研究感興趣,請收好傳送門:

論文:

High-Fidelity Image Generation With Fewer Labels

https://arxiv.org/abs/1903.02271

文章開頭的這些照騙展示,就出自論文之中:

第一行是BigGAN作品,第二行是S3GAN新品,你猜對了嗎?

另外,他們還在GitHub上開源了論文中實驗所用全部代碼:

https://github.com/google/compare_gan

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6142

    瀏覽量

    105106
  • 圖像
    +關注

    關注

    2

    文章

    1083

    瀏覽量

    40418

原文標題:史上最強GAN被谷歌超越!標注數據少用90%,造假效果卻更逼真

文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AI智能體逼真模擬人類行為

    近日,據外媒最新報道,斯坦福大學、華盛頓大學與Google DeepMind的科研團隊攜手合作,成功開發出一種能夠高度逼真模擬人類行為的AI智能體。 該智能體的構建得益于研究團隊將詳細的訪談記錄
    的頭像 發表于 11-26 10:24 ?24次閱讀

    深入理解渲染引擎:打造逼真圖像的關鍵

    在數字世界中,圖像渲染是創造逼真視覺效果的核心技術。渲染引擎,作為這一過程中的關鍵組件,負責將二維或三維的模型、紋理、光照等數據轉化為人們肉眼可見的二維圖像。本文將深入探討渲染引擎的工
    的頭像 發表于 06-29 08:28 ?292次閱讀
    深入理解渲染引擎:打造<b class='flag-5'>逼真</b><b class='flag-5'>圖像</b>的關鍵

    谷歌和Meta希望與好萊塢合作獲得授權內容

    據知情人士透露,谷歌母公司Alphabet和Meta正與好萊塢主要電影公司洽談,旨在獲得電影IP的授權,用于其人工智能視頻生成軟件。這兩家科技巨頭正積極開發新技術,能夠根據文本提示創建逼真的場景。
    的頭像 發表于 05-27 09:52 ?355次閱讀

    谷歌發布AI文生圖大模型Imagen

    近日,谷歌在人工智能領域取得新突破,正式推出了Imagen文生圖模型。這款模型以其卓越的細節調整功能、逼真的光線效果以及從草圖快速生成高分辨率圖像
    的頭像 發表于 05-16 09:30 ?477次閱讀

    深度學習生成對抗網絡(GAN)全解析

    GANs真正的能力來源于它們遵循的對抗訓練模式。生成器的權重是基于判別器的損失所學習到的。因此,生成生成圖像所推動著進行訓練,很難知
    發表于 03-29 14:42 ?4351次閱讀
    深度學習<b class='flag-5'>生成</b>對抗網絡(GAN)全解析

    麻省理工與Adobe新技術DMD提升圖像生成速度

    2023年3月27日,據傳,新型文生圖算法雖然使得圖像生成無比逼真,但奈何運行速度較慢。近期,美國麻省理工學院聯合Adobe推出新型DMD方法,僅略微犧牲圖像質量就大幅度提高
    的頭像 發表于 03-27 14:17 ?479次閱讀

    谷歌Gemini AI模型因人物圖像生成問題暫停運行

    據報道,部分用戶發現Gemini生成的圖片存在明顯錯誤,如特斯拉創始人和其他名人變成了黑人模樣。谷歌已決定暫停該模型的人物圖像生成功能以待改善。
    的頭像 發表于 02-25 09:59 ?555次閱讀

    鴻蒙開發圖形圖像——@ohos.effectKit (圖像效果)

    圖像效果提供處理圖像的一些基礎能力,包括對當前圖像的亮度調節、模糊化、灰度調節、智能取色等。 該模塊提供以下
    的頭像 發表于 02-22 16:08 ?360次閱讀
    鴻蒙開發圖形<b class='flag-5'>圖像</b>——@ohos.effectKit (<b class='flag-5'>圖像</b><b class='flag-5'>效果</b>)

    OpenAI發布文生視頻模型Sora,引領AI視頻生成新紀元

    在人工智能(AI)領域掀起新一輪革命浪潮的,正是OpenAI最新推出的文生視頻大模型——Sora。這款業界廣泛贊譽的模型,以其“逼真”和“富有想象力”的視頻生成能力,徹底顛覆了傳統視頻生成
    的頭像 發表于 02-19 11:03 ?888次閱讀

    谷歌地圖引入生成式AI功能

    谷歌近日宣布,在其廣受歡迎的谷歌地圖應用中引入了全新的生成式AI功能。這一創新功能利用大型模型,深入分析了地圖上超過2.5億個地點的詳細信息,并結合了超過3億貢獻者的社區意見,為用戶提供更為
    的頭像 發表于 02-06 16:42 ?5027次閱讀

    谷歌推出圖像生成新工具ImageFX,提升圖像質量

    作為實驗室的新興工具,ImageFX 允許用戶借助簡潔的文字指令來創作圖像。經過前期試驗,該團隊認為對生成型人工智能工具來說最關鍵的是如何啟發并鼓勵用戶挖掘和實踐創意想法。
    的頭像 發表于 02-02 14:18 ?614次閱讀

    Adobe提出DMV3D:3D生成只需30秒!讓文本、圖像都動起來的新方法!

    因此,本文研究者的目標是實現快速、逼真和通用的 3D 生成。為此,他們提出了 DMV3D。DMV3D 是一種全新的單階段的全類別擴散模型,能直接根據模型文字或單張圖片的輸入,生成 3D NeRF。在單個 A100 GPU 上,僅
    的頭像 發表于 01-30 16:20 ?812次閱讀
    Adobe提出DMV3D:3D<b class='flag-5'>生成</b>只需30秒!讓文本、<b class='flag-5'>圖像</b>都動起來的新方法!

    何愷明新作RCG:無自條件圖像生成新SOTA!與MIT首次合作!

    它有望超越條件圖像生成,并推動諸如分子設計或藥物發現這種不需要人類給注釋的應用往前發展(這也是為什么條件生成圖像發展得這么好,我們還要重視無
    的頭像 發表于 12-10 10:24 ?904次閱讀
    何愷明新作RCG:無自條件<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>新SOTA!與MIT首次合作!

    阿迪達斯與 Covision Media 使用 AI 和 NVIDIA RTX 創建逼真的 3D 內容

    Covision 的基于 AI 的 3D 技術可幫助企業掃描數千種產品,為網站和移動應用創建逼真的 3D 圖像、視頻和 AR 體驗。 將實體產品掃描成 3D 模型是一項十分耗時的工作。企業通常
    的頭像 發表于 11-28 18:45 ?628次閱讀
    阿迪達斯與 Covision Media 使用 AI 和 NVIDIA RTX 創建<b class='flag-5'>逼真的</b> 3D 內容

    香港大學最新提出!實現超現實的人類圖像生成:HyperHuman

    最后,為了進一步提高視覺質量,我們提出了一種結構引導細化器來組合預測條件,以更詳細地生成更高分辨率。大量的實驗表明,我們的框架具有最先進的性能,可以在不同的場景下生成逼真的人類圖像
    的頭像 發表于 11-27 16:03 ?719次閱讀
    香港大學最新提出!實現超現實的人類<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>:HyperHuman