精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

有人開源PyTorch實現極慢視頻 突破人類極限

ml8z_IV_Technol ? 來源:cg ? 2019-01-02 09:49 ? 次閱讀

英偉達團隊CVPR-18論文Super SloMo使用深度學習,能將任意視頻變為“高清慢速播放”模式,從此不再錯過任何細節。今天有人開源了PyTorch實現,趕緊來試試吧!

總有那么一些細節,你瞪大雙眼拼了命想看清卻依然奈不了何,比如下面這個:

跟得上球嗎?要看清男子羽毛球比賽的細節實在不容易

有時候想盯住飛來飛去的羽毛球,非常吃力,這就是人類肉眼的極限。

你或許會說,好解決啊,用慢速回放功能就行了。

確實可以回放,但慢速回放的前提,是攝像機一開始就捕捉到了這些細節。如今,一些大型體育賽事已經用上了工業高速攝像頭,為的就是在裁判的裁決引發爭議時,可以用慢鏡頭回放來判定結果。

但是,沒有專業的高速攝像頭怎么辦?

像我們用智能手機拍的視頻,記錄下生活中很多美好,隨風飄逝的晚霞,又或者池塘濺起的漣漪,還有孩子們在泳池里潑水嬉戲,如果都能夠放慢了觀看,必將帶來全新的感受。

正因如此,當今年計算機視覺頂會CVPR舉行時,英偉達團隊的一篇能讓手機拍攝的視頻也“高清慢速播放”的論文,在業界引發了很大的反響。

這項被稱為Super SloMo的工作,使用深度神經網絡,對視頻中缺失的幀進行預測并補全,從而生成連續慢速回放的效果。

更贊的是,他們提出的方法,能夠排除原視頻幀當中被遮擋的像素,從而避免在生成的內插中間幀里產生模糊的偽像(artifact)。

值得一提,這篇論文的第一作者,是本碩畢業于西安交通大學、現在馬薩諸塞大學阿默斯特分校讀博四的Huaizu Jiang。第二作者Deqing Sun是英偉達學習與感知研究小組的高級研究員,本科畢業于哈工大,碩士讀的港中文,在布朗大學取得博士學位后,在哈佛Hanspeter Pfister教授的視覺研究小組做過博士后。

感受一下Super-SloMo生成的“慢速回放”效果:

注意,左右兩邊都是Super SloMo生成的視頻。左邊是原始慢速視頻,右邊是將這個結果再放慢4倍的效果,如果不告訴你中間的細節(幀)是神經網絡生成的,你會不會把它們當做真的慢速回放?來源:Huaizu Jiang個人主頁

實際用手機拍攝的畫面是這樣的,對比后,意識到Super SloMo補充多少細節了嗎?

論文作者稱,他們能將30FPS(畫面每秒幀數)的視頻變為480FPS,也即每秒幀數增加了16倍。

根據Super SloMo項目主頁,作者表示,使用他們未經優化的PyTorch代碼,在單個NVIDIA GTX 1080Ti 和 Tesla V100 GPU上,生成7個分辨率為1280*720的中間幀,分別只需要0.97秒和0.79秒。(補充說明:從標準序列30-fps生成240-fps視頻,一般需要在兩個連續幀內插入7個中間幀。)

效果當然稱得上驚艷。然而,令很多人失望的是,論文發布時并沒有將代碼和數據集公開,盡管作者表示可以聯系 Huaizu Jiang 獲取部分原始資料

僅在論文中提到的數據和示例。來源:Super SloMo論文

今天,有人在 Github 上開源了他對 Super-SloMo 的 PyTorch 實現。這位ID為atplwl的Reddit用戶,在作者提供的adobe24fps數據集上預訓練的模型(下圖中pretrained mine),實現了與論文描述相差無幾的結果。

現在,這個預訓練模型,還有相關的代碼、數據集,以及實現條件,都能在GitHub上查到。

自稱新手的atplwl表示,他目前在努力完善這個GitHub庫,接下來預計添加一個PyThon腳本,將視頻轉換為更高的fps視頻,歡迎大家提供建議。

Super SloMo:將任意視頻變為“高清慢速播放”

代碼在手,再看論文——前文已經說過,從已有視頻中生成高清慢速視頻是一件非常有意義的事情。

除了專業的高速攝像機尚未普及到每個人手里,人們用手機拍攝的視頻 (一般為240FPS) 想要放慢的時刻是不可預測的,要實現這一點就不得不用標準幀速率來記錄所有視頻,但這樣做需要的內存過大,對移動設備來說耗電量也花不起。

現在,計算機視覺領域,除了將標準視頻轉換為更高的幀速率之外,還可以使用視頻插值來生成平滑的視圖轉換。在自監督學習中,這也可以作為監控信號來學習未標記視頻的光流。

不過,生成多個中間視頻幀 (intermediate video frame) 是具有挑戰性的,因為幀必須在空間和時間上是連貫的。例如,從30-fps標準序列生成240-fps視頻,需要在兩個連續幀內插入7個中間幀。

成功的解決方案不僅要正確解釋兩個輸入圖像之間的運動(隱式或顯式),還要理解遮擋 (occlusion)。 否則,就可能導致插值幀中產生嚴重的偽像,尤其是在運動邊界附近。

現有方法主要集中于單幀視頻插值,而且已經取得了不錯的進展。然而,這些方法不能直接用于生成任意高幀率視頻。

雖然遞歸地應用單幀視頻插值方法生成多個中間幀是一個很不錯的想法,但這種方法至少有兩個限制:

首先,遞歸單幀插值不能完全并行化,速度較慢,因為有些幀是在其他幀完成后才進行計算的(例如,在七幀插值中,幀2取決于0和4,而幀4取決于0和8)。

其次,它只能生成2i-1個中間幀。因此,不能使用這種方法有效生地生成1008 - fps 24幀的視頻,這需要生成41中間幀。

論文Super SloMo: High Quality Estimation of Multiple Intermediate Frames for Video Interpolation提出了一種高質量的變長多幀插值方法,該方法可以在兩幀之間的任意時間步長進行插值。

其主要思想是,將輸入的兩幅圖像扭曲到特定的時間步長,然后自適應地融合這兩幅扭曲圖像,生成中間圖像,其中的運動解釋和遮擋推理在單個端到端可訓練網絡中建模。

Super SloMo效果展示:注意在放慢過渡區域對偽像的處理。

具體來說,首先使用流量計算CNN來估計兩幅輸入圖像之間的雙向光流,然后線性融合來近似所需的中間光流,從而使輸入圖像發生扭曲。這種近似方法適用于光滑區域,但不適用于運動邊界。

因此,Super SloMo 論文作者使用另一個流量插值CNN來細化流近似并預測軟可見性圖。

通過在融合之前將可見性圖應用于變形圖像,排除了被遮擋像素對內插中間幀的貢獻,從而減少了偽像。

Super SloMo網絡架構

“我們的流計算和插值網絡的參數都獨立于被插值的具體時間步長,是流插值網絡的輸入。因此,我們的方法可以并行生成任意多的中間幀。”作者在論文中寫道。

為了訓練該網絡,團隊從YouTube和手持攝像機收集了240-fps的視頻。總量有1.1K視頻剪輯,由300K個獨立視頻幀組成,典型分辨率為1080×720。

然后,團隊在其他幾個需要不同插值數量的獨立數據集上評估了訓練模型,包括Middlebury 、 UCF101 、慢流(slowflow)數據集和高幀率(high-frame-rate) MPI Sintel。

實驗結果表明,該方法明顯優于所有數據集上的現有方法。 團隊還在KITTI 2012光流基準上評估了無監督(自監督)光流結果,并獲得了比現有最近方法更好的結果。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4764

    瀏覽量

    100542
  • 開源
    +關注

    關注

    3

    文章

    3253

    瀏覽量

    42408
  • pytorch
    +關注

    關注

    2

    文章

    803

    瀏覽量

    13149

原文標題:干掉高速攝像頭!神經網絡生成極慢視頻,突破人類肉眼極限(PyTorch實現)

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    Image Style Transfer pytorch方式實現的主要思路

    深度學總結:Image Style Transfer pytorch方式實現,這個是非基于autoencoder和domain adversrial方式
    發表于 06-20 10:58

    如何用變址尋址原理突破EEPROM存儲器的擦寫壽命極限

    用變址尋址原理突破EEPROM存儲器的擦寫壽命極限
    發表于 03-18 06:00

    物聯網發展 人類與工具的交互方式實現突破

    我們向 5G 發展的過程,其實也是人類計算工具的移動能力和計算能力并行發展的過程,是我們人類與工具的交互方式實現突破的過程。
    的頭像 發表于 03-01 10:46 ?3443次閱讀

    Facebook致力AI開源PyTorch 1.0 AI框架

    Facebook近日宣布,將于近期開源PyTorch 1.0 AI框架,據悉,該框架是PyTorch與Caffe 2的結合,可以讓開發者無需遷移就從研究轉為生產。
    的頭像 發表于 05-08 14:58 ?3388次閱讀

    Facebook致力AI 開源PyTorch1.0 AI框架

    導讀: Facebook近日宣布,將于近期開源PyTorch 1.0 AI框架,據悉,該框架是PyTorch與Caffe 2的結合,可以讓開發者無需遷移就從研究轉為生產。 Facebook近日宣布
    的頭像 發表于 06-18 10:30 ?3166次閱讀

    PyTorch版《動手學深度學習》開源

    目前,該項目在 GitHub 上已獲得超過 1.1 萬星,并且中文版電子書還發布了紙質版書籍。不過雖然書籍非常優秀,但還是有一些讀者不太習慣用 Gluon 來寫代碼,畢竟開源項目大部分都是 TF 或 PyTorch 寫的。現在好了,我們可以直接結合書籍內容和
    的頭像 發表于 09-20 15:25 ?2795次閱讀

    Pytorch實現MNIST手寫數字識別

    Pytorch 實現MNIST手寫數字識別
    發表于 06-16 14:47 ?7次下載

    PyTorch開源深度學習框架簡介

    PyTorch 是一種開源深度學習框架,以出色的靈活性和易用性著稱。這在一定程度上是因為與機器學習開發者和數據科學家所青睞的熱門 Python 高級編程語言兼容。
    的頭像 發表于 07-29 10:26 ?4369次閱讀

    PyTorch教程3.2之面向對象的設計實現

    電子發燒友網站提供《PyTorch教程3.2之面向對象的設計實現.pdf》資料免費下載
    發表于 06-05 15:48 ?0次下載
    <b class='flag-5'>PyTorch</b>教程3.2之面向對象的設計<b class='flag-5'>實現</b>

    PyTorch教程3.5之線性回歸的簡潔實現

    電子發燒友網站提供《PyTorch教程3.5之線性回歸的簡潔實現.pdf》資料免費下載
    發表于 06-05 11:28 ?0次下載
    <b class='flag-5'>PyTorch</b>教程3.5之線性回歸的簡潔<b class='flag-5'>實現</b>

    深度學習框架pytorch入門與實踐

    深度學習框架pytorch入門與實踐 深度學習是機器學習中的一個分支,它使用多層神經網絡對大量數據進行學習,以實現人工智能的目標。在實現深度學習的過程中,選擇一個適用的開發框架是非常關鍵
    的頭像 發表于 08-17 16:03 ?1568次閱讀

    pytorch用來干嘛的

    pytorch用來干嘛的 PyTorch是一個開源的Python機器學習庫,它主要用于創建神經網絡。它提供了幾乎所有深度學習工具,包括用于自動梯度計算的張量之間的運算,通過GPU加速的深度神經網絡
    的頭像 發表于 08-21 16:41 ?9212次閱讀

    如何使用PyTorch建立網絡模型

    PyTorch是一個基于Python的開源機器學習庫,因其易用性、靈活性和強大的動態圖特性,在深度學習領域得到了廣泛應用。本文將從PyTorch的基本概念、網絡模型構建、優化方法、實際應用等多個方面,深入探討使用
    的頭像 發表于 07-02 14:08 ?360次閱讀

    PyTorch的介紹與使用案例

    PyTorch是一個基于Python的開源機器學習庫,它主要面向深度學習和科學計算領域。PyTorch由Meta Platforms(原Facebook)的人工智能研究團隊開發,并逐漸發展成為深度
    的頭像 發表于 07-10 14:19 ?359次閱讀

    pytorch怎么在pycharm中運行

    第一部分:PyTorch和PyCharm的安裝 1.1 安裝PyTorch PyTorch是一個開源的機器學習庫,用于構建和訓練神經網絡。要在PyCharm中使用
    的頭像 發表于 08-01 16:22 ?1239次閱讀