精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用12個示例解釋了使用TensorFlow 2.0 + Keras 的一些重要技巧

DPVg_AI_era ? 來源:lp ? 2019-03-15 09:27 ? 次閱讀

Keras 作者 Fran?ois Chollet 今天發(fā)表了一系列推文,如果你使用 TensorFlow 2.0 + Keras 做深度學(xué)習(xí)研究,這里有你需要知道的一切。

TensorFlow 2.0 前幾天新鮮出爐,Alpha 版可以搶先體驗。新版本主打簡單易用可擴展,大大簡化了 API

Keras 作者 Fran?ois Chollet 今天發(fā)表了一系列推文,用12個示例解釋了使用TensorFlow 2.0 + Keras 的一些重要技巧。

如果你使用 TF 2.0 + Keras做深度學(xué)習(xí)研究,這里有你需要知道的一切。

Keras 作者 Fran?ois Chollet

1)你需要知道的第一個類是 “Layer”。一個 Layer 封裝了一個狀態(tài) (權(quán)重) 和一些計算 (在 “call” 方法中定義)。

2)“add_weight” 方法提供了創(chuàng)建權(quán)重的快捷方式。

3)最好在一個單獨的 “build” 方法中創(chuàng)建權(quán)重,使用你的 layer 看到的第一個輸入的形狀來調(diào)用該方法。這種模式讓我們不用必須指定’ input_dim ‘:

4)你可以通過在 GradientTape 中調(diào)用 layer 來自動檢索該層權(quán)重的梯度。使用這些梯度,你可以手動或使用優(yōu)化器對象來更新 layer 的權(quán)重。當(dāng)然,你也可以在使用梯度之前修改它們。

5)由 layers 創(chuàng)建的權(quán)重可以是可訓(xùn)練的,也可以是不可訓(xùn)練的。是否可訓(xùn)練可以在 layer 的屬性 “trainable_weights” 和 “non_trainable_weights” 中看到。比如,這是一個具有不可訓(xùn)練權(quán)重的層:

6)層可以遞歸地嵌套,以創(chuàng)建更大的計算塊。每一層將跟蹤其子層的權(quán)重 (包括可訓(xùn)練的和不可訓(xùn)練的)。

7)層會在前向傳遞時創(chuàng)建損失。這對于正則化損失特別有用。子層創(chuàng)建的損失由父層遞歸跟蹤。

8)這些損失在每次向前傳遞開始時由頂層清除 —— 它們不會累積。“l(fā)ayer.losses” 總是只包含在 “最后一次” 前向傳遞時產(chǎn)生的損失。在編寫訓(xùn)練循環(huán)時,你通常需要將這些損失累加起來使用。

9)TF 2.0 默認(rèn)情況下是 eager。但是通過將計算編譯成靜態(tài)圖,將能夠獲得更好的性能。靜態(tài)圖是研究人員最好的朋友!你可以通過將其包裝在一個 tf.function 中來編譯任何函數(shù):

10)有些層,特別是 “BatchNormalization” 層和 “退 Dropout” 層,在訓(xùn)練和推理過程中會表現(xiàn)出不同的行為。對于這樣的層,標(biāo)準(zhǔn)做法是在 “call” 方法中加入一個 “training”(boolean) 參數(shù)

11)有很多內(nèi)置層是可用的,從 Dense 層到 Conv2D 層到 LSTM 層,再到 Conv2DTranspose 或 ConvLSTM2D。你要學(xué)會好好重用這些內(nèi)置函數(shù)。

12)要構(gòu)建深度學(xué)習(xí)模型,你不必總是使用面向?qū)ο?a target="_blank">編程。到目前為止,我們看到的所有層都可以按函數(shù)組合,就像這樣 (我們稱之為 “Functional API”):

函數(shù)式 API 往往比 subclassing 更簡潔,并且還有其他優(yōu)點。

了解關(guān)于 Functional API 的更多信息

https://www.tensorflow.org/alpha/guide/keras/functional

但是,請注意,函數(shù)式 API 只能用于定義層的 DAGs—— 遞歸網(wǎng)絡(luò)應(yīng)該定義為 “Layer” 子類。

在研究工作中,你可能經(jīng)常發(fā)現(xiàn)自己混合匹配了 OO 模型和函數(shù)式模型。

以上,就是使用 TensorFlow 2.0 + Keras 來重新實現(xiàn)大多數(shù)深度學(xué)習(xí)研究論文所需要的全部內(nèi)容!

現(xiàn)在讓我們來看一個非常簡單的例子:hypernetworks。

hypernetwork 是一個深度神經(jīng)網(wǎng)絡(luò),它的權(quán)重由另一個網(wǎng)絡(luò) (通常較小) 生成。

讓我們實現(xiàn)一個非常簡單的 hypernetwork:我們將使用前面定義的 “Linear” 層,并使用它生成另一個 “Linear” 層。

另一個快速示例:以任何一種風(fēng)格實現(xiàn) VAE,可以是 subclassing,或者函數(shù)式 API。找到最適合你的方法吧!

subclassing

Functional API

最后,你可以在這個 Colab 筆記本中使用這些代碼示例:

https://colab.research.google.com/drive/17u-pRZJnKN0gO5XZmq8n5A2bKGrfKEUg

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    1486

    瀏覽量

    61820
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5493

    瀏覽量

    120983
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    329

    瀏覽量

    60499

原文標(biāo)題:Keras作者:TF 2.0+Keras深度學(xué)習(xí)研究你需要了解的12件事

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    TensorFlow常用Python擴展包

    TensorFlow 能夠?qū)崿F(xiàn)大部分神經(jīng)網(wǎng)絡(luò)的功能。但是,這還是不夠的。對于預(yù)處理任務(wù)、序列化甚至繪圖任務(wù),還需要更多的 Python 包。下面列出了一些常用的 Python 包:Numpy:這是
    發(fā)表于 07-28 14:35

    使用RTL8722DM運行 TensorFlow Lite Hello World 示例

    谷歌 TensorFlow 簡介TensorFlow (TF) 是用于機器學(xué)習(xí)的大量拓展平臺。它擁有
    發(fā)表于 06-21 15:48

    RK3399Pro入門教程(4)從Tensorflow.Keras到RKNN

    graph_util2. 建立Keras模型和訓(xùn)練我們Tensorflow的官網(wǎng)首頁代碼,為了保存模型,需要點小修改:mnist = tf.k
    發(fā)表于 03-31 16:23

    Keras搭建神經(jīng)網(wǎng)絡(luò)的般步驟

    1 keras是什么? Keras Python 編寫的高級神經(jīng)網(wǎng)絡(luò) API,它能夠以 Te
    發(fā)表于 08-18 07:35

    基于Keras搭建的深度學(xué)習(xí)網(wǎng)絡(luò)示例

    Python軟件基金會成員(Contibuting Member)Vihar Kurama簡明扼要地介紹深度學(xué)習(xí)的基本概念,同時提供基于Ke
    的頭像 發(fā)表于 06-06 11:21 ?8246次閱讀

    TensorFlow2.0 版本將來臨

    TensorFlow 的 contrib 模塊已經(jīng)超越單個存儲庫中可以維護和支持的模塊。較大的項目最好分開維護,我們將在 TensorFlow 的主代碼里添加一些規(guī)模較小的擴展。因此
    的頭像 發(fā)表于 08-15 09:01 ?5480次閱讀

    KerasTensorFlow究竟哪個會更好?

    Keras 依然作為庫,與 TensorFlow 分開,進(jìn)行獨立操作,所以仍存在未來兩者會分開的可能性;然而,我們知道 Google 官方同時支持
    的頭像 發(fā)表于 10-11 10:05 ?2.2w次閱讀

    TensorFlowKeras哪個更好用?

    作為庫,Keras 仍然可以單獨使用,因此未來兩者可能會分道揚鑣。不過,因為谷歌官方支持 KerasTensorFlow,所以似乎
    的頭像 發(fā)表于 10-31 09:40 ?1.1w次閱讀

    TensorFlow 2.0中關(guān)于Keras一些新功能和重大變化

    TensorFlow 的高級 API,機器學(xué)習(xí)領(lǐng)域的新手可以更容易上手。通過單的高級 API 可以減少混淆,讓我們能夠?qū)W⒂跒檠芯咳藛T提供高級功能。
    的頭像 發(fā)表于 12-12 09:55 ?8548次閱讀
    <b class='flag-5'>TensorFlow</b> <b class='flag-5'>2.0</b>中關(guān)于<b class='flag-5'>Keras</b>的<b class='flag-5'>一些</b>新功能和重大變化

    最新tf.keras指南,TensorFlow官方出品

    TensorFlow 1.x以靜態(tài)圖為主,網(wǎng)上主流的TF代碼編寫主要是面向過程的(函數(shù)為主),在引入tf.keras之后,TensorFlow官方就開始推薦tf.keras里各種面向?qū)?/div>
    的頭像 發(fā)表于 03-29 11:28 ?4192次閱讀

    如何在TensorFlow2里使用Keras API創(chuàng)建自定義CNN網(wǎng)絡(luò)?

    概述 本示例工程中我們會在 TensorFlow2 下使用 Keras API 創(chuàng)建自定義 CNN 網(wǎng)絡(luò),在 Vitis-AI 1.3
    的頭像 發(fā)表于 04-15 11:36 ?2075次閱讀

    TensorFlow主題演講中涉及的一些更新總結(jié)

    Google 開發(fā)者?Youku?頻道上找到所有主題演講的視頻。以下是按產(chǎn)品領(lǐng)域列出的一些更新摘要(視頻中還有更多產(chǎn)品更新要點,請務(wù)必查看)。 移動版和網(wǎng)站版 TensorFlow
    的頭像 發(fā)表于 05-28 14:19 ?1844次閱讀

    基于TensorFlowKeras的圖像識別

    ,讓我們先花點時間來了解一些術(shù)語。TensorFlow/KerasTensorFlow是GoogleBrain團隊創(chuàng)建的Python開源庫,它包含許多算法和模型
    的頭像 發(fā)表于 01-13 08:27 ?773次閱讀
    基于<b class='flag-5'>TensorFlow</b>和<b class='flag-5'>Keras</b>的圖像識別

    keras的模塊結(jié)構(gòu)介紹

    Keras高級深度學(xué)習(xí)庫,它提供易于使用的接口來構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型。
    的頭像 發(fā)表于 07-05 09:35 ?312次閱讀

    keras模型轉(zhuǎn)tensorflow session

    在這篇文章中,我們將討論如何將Keras模型轉(zhuǎn)換為TensorFlow session。 KerasTensorFlow簡介 Keras
    的頭像 發(fā)表于 07-05 09:36 ?465次閱讀