精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度學習中的學習率調節實踐

454398 ? 來源:alpha007 ? 作者:alpha007 ? 2022-11-16 17:53 ? 次閱讀

多層感知器多層感知器(MLP)是由一個輸入層、一個或多個隱藏層和一個稱為輸出層的最終層組成的人工神經網絡(ANN)。通常,靠近輸入層的層稱為較低層,靠近輸出層的層稱為外層,除輸出層外的每一層都包含一個偏置神經元,并與下一層完全相連。當一個 ANN 包含一個很深的隱藏層時,它被稱為深度神經網絡(DNN)。

在本文中,我們將在 MNIST 數據集上訓練一個深度 MLP,并通過指數增長來尋找最佳學習率,繪制損失圖,并找到損失增長的點,以達到 85%以上的準確率。對于最佳的實踐過程,我們將實現早期停止,保存檢查點,并使用 TensorBoard 繪制學習曲線。你可以在這里查看 jupyter Notebook:https://github.com/lukenew2/learning_rates_and_best_practices/blob/master/optimal_learning_rates_with_keras_api.ipynb 指數學習率學習率可以說是最重要的超參數。一般情況下,最佳學習速率約為最大學習速率(即訓練算法偏離的學習速率)的一半。找到一個好的學習率的一個方法是訓練模型進行幾百次迭代,從非常低的學習率(例如,1e-5)開始,逐漸增加到非常大的值(例如,10)。這是通過在每次迭代時將學習速率乘以一個常數因子來實現的。如果你將損失描繪為學習率的函數,你應該首先看到它在下降,但過一段時間后,學習率會變得很高,這時損失會迅速回升:最佳學習率將略低于轉折點,然后你可以重新初始化你的模型,并使用此良好的學習率對其進行正常訓練。Keras 模型我們先導入相關庫 import osimport matplotlib.pyplot as pltimport numpy as npimport pandas as pd

PROJECT_ROOT_DIR = "."IMAGES_PATH = os.path.join(PROJECT_ROOT_DIR, "images")os.makedirs(IMAGES_PATH, exist_ok=True)

def save_fig(fig_id, tight_layout=True, fig_extension="png", resolution=300): path = os.path.join(IMAGES_PATH, fig_id + "." + fig_extension) print("Saving figure", fig_id) if tight_layout: plt.tight_layout() plt.savefig(path, format=fig_extension, dpi=resolution)import tensorflow as tffrom tensorflow import keras 接下來加載數據集(X_train, y_train), (X_test, y_test) = keras.datasets.fashion_mnist.load_data()

X_train.shape

X_train.dtype 標準化像素 X_valid, X_train = X_train[:5000] / 255.0, X_train[5000:] / 255.0y_valid, y_train = y_train[:5000], y_train[5000:] X_test = X_test / 255.0 讓我們快速看一下數據集中的圖像樣本,讓我們感受一下分類任務的復雜性:class_names = ["T-shirt/top", "Trouser", "Pullover", "Dress", "Coat", "Sandal", "Shirt", "Sneaker", "Bag", "Ankle boot"]

n_rows = 4n_cols = 10plt.figure(figsize=(n_cols * 1.2, n_rows * 1.2))for row in range(n_rows): for col in range(n_cols): index = n_cols * row + col plt.subplot(n_rows, n_cols, index + 1) plt.imshow(X_train[index], cmap="binary", interpolation="nearest") plt.axis('off') plt.title(class_names[y_train[index]], fontsize=12)plt.subplots_adjust(wspace=0.2, hspace=0.5)save_fig('fashion_mnist_plot', tight_layout=False)plt.show()

我們已經準備好用 Keras 來建立我們的 MLP。下面是一個具有兩個隱藏層的分類 MLP:model = keras.models.Sequential([ keras.layers.Flatten(input_shape=[28,28]), keras.layers.Dense(300, activation="relu"), keras.layers.Dense(100, activation="relu"), keras.layers.Dense(10, activation="softmax")])讓我們一行一行地看這個代碼:首先,我們創建了一個 Sequential 模型,它是神經網絡中最簡單的 Keras 模型,它只由一堆按順序連接的層組成。接下來,我們構建第一層并將其添加到模型中。它是一個 Flatten 層,其目的是將每個輸入圖像轉換成一個 1D 數組:如果它接收到輸入數據 X,則計算 X.reshape(-1,1)。由于它是模型的第一層,所以應該指定其輸入形狀。你也可以添加 keras.layers.InputLayer 作為第一層,設置其 input_shape=[28,28]下一步,我們添加一個 300 個神經元的隱藏層,并指定它使用 ReLU 激活函數。每一個全連接層管理自己的權重矩陣,包含神經元與其輸入之間的所有連接權重,同事它還管理一個偏置向量,每個神經元一個。然后我們添加了第二個 100 個神經元的隱藏層,同樣使用 ReLU 激活函數。最后,我們使用 softmax 激活函數添加了一個包含 10 個神經元的輸出層(因為我們的分類任務是每個類都是互斥的)。使用回調在 Keras 中,fit()方法接受一個回調參數,該參數允許你指定 Keras 在訓練開始和結束、每個 epoch 的開始和結束時,甚至在處理每個 batch 處理之前和之后要調用對象的列表。為了實現指數級增長的學習率,我們需要創建自己的自定義回調。我們的回調接受一個參數,用于提高學習率的因子。為了將損失描繪成學習率的函數,我們跟蹤每個 batch 的速率和損失。請注意,我們將函數定義為 on_batch_end(),這取決于我們的目標,當然也可以是 on_train_begin(), on_train_end(), on_batch_begin()。對于我們的用例,我們希望在每個批處理之后提高學習率并記錄損失:K = keras.backend

class ExponentialLearningRate(keras.callbacks.Callback): def __init__(self, factor): self.factor = factor self.rates = [] self.losses = [] def on_batch_end(self, batch, logs): self.rates.append(K.get_value(self.model.optimizer.lr)) self.losses.append(logs["loss"]) K.set_value(self.model.optimizer.lr, self.model.optimizer.lr * self.factor)現在我們的模型已經創建好了,我們只需調用它的 compile()方法來指定要使用的 loss 函數和優化器,或者你可以指定要在訓練和評估期間計算的額外指標列表。首先,我們使用“稀疏的分類交叉熵”損失,因為我們有稀疏的標簽(也就是說,對于每個實例,只有一個目標類索引,在我們的例子中,從 0 到 9),并且這些類是互斥的);接下來,我們指定使用隨機梯度下降,并將學習速率初始化為 1e-3,并在每次迭代中增加 0.5%:model.compile(loss="sparse_categorical_crossentropy", optimizer=keras.optimizers.SGD(lr=1e-3), metrics=["accuracy"])expon_lr = ExponentialLearningRate(factor=1.005)現在讓我們訓練模型一個 epoch:history = model.fit(X_train, y_train, epochs=1, validation_data=(X_valid, y_valid), callbacks=[expon_lr])我們現在可以將損失繪制為學習率的函數:plt.plot(expon_lr.rates, expon_lr.losses)plt.gca().set_xscale('log')plt.hlines(min(expon_lr.losses), min(expon_lr.rates), max(expon_lr.rates))plt.axis([min(expon_lr.rates), max(expon_lr.rates), 0, expon_lr.losses[0]])plt.xlabel("Learning rate")plt.ylabel("Loss")save_fig("learning_rate_vs_loss")

正如我們所期望的,隨著學習率的提高,最初的損失逐漸減少,但過了一段時間,學習率太大,導致損失反彈:最佳學習率將略低于損失開始攀升的點(通常比轉折點低 10 倍左右)。我們現在可以重新初始化我們的模型,并使用良好的學習率對其進行正常訓練。還有更多的學習率技巧,包括創建學習進度表,我希望在以后的調查中介紹,但對如何手動選擇好的學習率有一個直觀的理解同樣重要。我們的損失在 3e-1 左右開始反彈,所以讓我們嘗試使用 2e-1 作為我們的學習率:keras.backend.clear_session()np.random.seed(42)tf.random.set_seed(42)model = keras.models.Sequential([ keras.layers.Flatten(input_shape=[28, 28]), keras.layers.Dense(300, activation="relu"), keras.layers.Dense(100, activation="relu"), keras.layers.Dense(10, activation="softmax")])model.compile(loss="sparse_categorical_crossentropy", optimizer=keras.optimizers.SGD(lr=2e-1), metrics=["accuracy"])使用 TensorBoard 進行可視化 TensorBoard 是一個很好的交互式可視化工具,你可以使用它查看訓練期間的學習曲線、比較學習曲線、可視化計算圖、分析訓練統計數據、查看模型生成的圖像,可視化復雜的多維數據投影到三維和自動聚類,等等!這個工具是在安裝 TensorFlow 時自動安裝的,所以你應該已經安裝了。讓我們首先定義將用于 TensorBoard 日志的根日志目錄,再加上一個小函數,該函數將根據當前時間生成一個子目錄路徑,以便每次運行時它都是不同的。你可能需要在日志目錄名稱中包含額外的信息,例如正在測試的超參數值,以便更容易地了解你在 TensorBoard 中查看的內容:root_logdir = os.path.join(os.curdir, "my_logs")

def get_run_logdir(): import time run_id = time.strftime("run_%Y_%m_%d-%H_%M_%S") return os.path.join(root_logdir, run_id)
run_logdir = get_run_logdir() # 例如, './my_logs/run_2020_07_31-15_15_22'Keras api 提供了一個 TensorBoard()回調函數。TensorBoard()回調函數負責創建日志目錄,并在訓練時創建事件文件和編寫摘要(摘要是一種二進制數據記錄,用于創建可視化 TensorBoard)。每次運行有一個目錄,每個目錄包含一個子目錄,分別用于記錄訓練日志和驗證日志,兩者都包含事件文件,但訓練日志也包含分析跟蹤:這使 TensorBoard 能夠準確地顯示模型在模型的每個部分(跨越所有設備)上花費了多少時間,這對于查找性能瓶頸非常有用。early_stopping_cb = keras.callbacks.EarlyStopping(patience=20)checkpoint_cb = keras.callbacks.ModelCheckpoint("my_fashion_mnist_model.h5", save_best_only=True)tensorboard_cb = keras.callbacks.TensorBoard(run_logdir)
history = model.fit(X_train, y_train, epochs=100, validation_data=(X_valid, y_valid), callbacks=[early_stopping_cb, checkpoint_cb, tensorboard_cb])接下來,我們需要啟動 TensorBoard 服務器。我們可以通過運行以下命令在 Jupyter 中直接執行此操作。第一行加載 TensorBoard 擴展,第二行啟動端口 6004 上的 TensorBoard 服務器,并連接到它:%load_ext tensorboard %tensorboard — logdir=./my_logs — port=6004 現在你應該可以看到 TensorBoard 的 web 界面。單擊“scaler”選項卡以查看學習曲線。在左下角,選擇要可視化的日志(例如,第一次運行的訓練日志),然后單擊 epoch_loss scaler。請注意,在我們的訓練過程中,訓練損失下降得很順利。

你還可以可視化整個圖形、學習的權重(投影到 3D)或分析軌跡。TensorBoard()回調函數也有記錄額外數據的選項,例如 NLP 數據集的嵌入。這實際上是一個非常有用的可視化工具。結論在這里我們得到了 88%的準確率,這是我們可以達到的最好的深度 MLP。如果我們想進一步提高性能,我們可以嘗試卷積神經網絡(CNN),它對圖像數據非常有效。

就我們的目的而言,這就足夠了。我們學會了如何:使用 Keras 的 Sequential API 構建深度 mlp。通過按指數增長學習率,繪制損失圖,并找到損失重新出現的點,來找到最佳學習率。構建深度學習模型時的最佳實踐,包括使用回調和使用 TensorBoard 可視化學習曲線。如果你想在這里看到 ppt 或 jupyterNotebook 中完整的代碼和說明,請隨時查看 Github 存儲庫:https://github.com/lukenew2/learning_rates_and_best_practices。

審核編輯 黃昊宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 深度學習
    +關注

    關注

    73

    文章

    5492

    瀏覽量

    120977
收藏 人收藏

    評論

    相關推薦

    解析深度學習:卷積神經網絡原理與視覺實踐

    解析深度學習:卷積神經網絡原理與視覺實踐
    發表于 06-14 22:21

    什么是深度學習?使用FPGA進行深度學習的好處?

    什么是深度學習為了解釋深度學習,有必要了解神經網絡。神經網絡是一種模擬人腦的神經元和神經網絡的計算模型。作為具體示例,讓我們考慮一個輸入圖像并識別圖像
    發表于 02-17 16:56

    如何估算深度神經網絡的最優學習(附代碼教程)

    學習(learning rate)是調整深度神經網絡最重要的超參數之一,本文作者Pavel Surmenok描述了一個簡單而有效的辦法來幫助你找尋合理的學習
    發表于 12-07 11:05 ?2469次閱讀

    機器學習深度學習有什么區別?

    深度學習算法現在是圖像處理軟件庫的組成部分。在他們的幫助下,可以學習和訓練復雜的功能;但他們的應用也不是萬能的。 “機器學習”和“深度
    的頭像 發表于 03-12 16:11 ?8151次閱讀
    機器<b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>有什么區別?

    什么是基于深度學習的超分辨

    基于深度學習的超分辨是將學習的上采樣(up-sampling)函數應用于圖像的過程,目的是增強圖像現有的像素數據或生成合理的新像素數據,
    的頭像 發表于 05-24 09:33 ?2728次閱讀
    什么是基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的超分辨<b class='flag-5'>率</b>

    什么是深度學習優化算法

    先大致講一下什么是深度學習優化算法吧,我們可以把模型比作函數,一種很復雜的函數:h(f(g(k(x)))),函數有參數,這些參數是未知的,深度學習
    的頭像 發表于 02-13 15:31 ?1557次閱讀
    什么是<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>中</b>優化算法

    什么是深度學習算法?深度學習算法的應用

    。 在深度學習,使用了一些快速的算法,比如卷積神經網絡以及深度神經網絡,這些算法在大量數據處理和圖像識別上面有著非常重要的作用。 深度
    的頭像 發表于 08-17 16:03 ?2102次閱讀

    深度學習框架pytorch入門與實踐

    深度學習框架pytorch入門與實踐 深度學習是機器學習
    的頭像 發表于 08-17 16:03 ?1568次閱讀

    深度學習框架是什么?深度學習框架有哪些?

    深度學習框架是什么?深度學習框架有哪些?? 深度學習框架是一種軟件工具,它可以幫助開發者輕松快速
    的頭像 發表于 08-17 16:03 ?2670次閱讀

    深度學習框架和深度學習算法教程

    基于神經網絡的機器學習方法。 深度學習算法可以分為兩大類:監督學習和無監督學習。監督學習的基本任
    的頭像 發表于 08-17 16:11 ?1043次閱讀

    深度學習在語音識別的應用及挑戰

    一、引言 隨著深度學習技術的快速發展,其在語音識別領域的應用也日益廣泛。深度學習技術可以有效地提高語音識別的精度和效率,并且被廣泛應用于各種應用場景。本文將探討
    的頭像 發表于 10-10 18:14 ?845次閱讀

    GPU在深度學習的應用與優勢

    人工智能的飛速發展,深度學習作為其重要分支,正在推動著諸多領域的創新。在這個過程,GPU扮演著不可或缺的角色。就像超級英雄電影的主角一樣,GPU在
    的頭像 發表于 12-06 08:27 ?1208次閱讀
    GPU在<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>中</b>的應用與優勢

    深度學習的無監督學習方法綜述

    應用往往難以實現。因此,無監督學習深度學習扮演著越來越重要的角色。本文旨在綜述深度
    的頭像 發表于 07-09 10:50 ?513次閱讀

    深度學習的時間序列分類方法

    的發展,基于深度學習的TSC方法逐漸展現出其強大的自動特征提取和分類能力。本文將從多個角度對深度學習在時間序列分類的應用進行綜述,探討常用
    的頭像 發表于 07-09 15:54 ?707次閱讀

    NPU在深度學習的應用

    設計的硬件加速器,它在深度學習的應用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學習算法優化的處理器,它與傳統的CPU和G
    的頭像 發表于 11-14 15:17 ?297次閱讀