精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一個完整的MNIST測試集,其中包含60000個測試樣本

WpOh_rgznai100 ? 來源:lq ? 2019-06-02 09:43 ? 次閱讀

盡管MNIST是源于NIST數(shù)據(jù)庫的基準數(shù)據(jù)集,但是導出MNIST的精確處理過程已經(jīng)隨著時間的推移被人們多遺忘。因此,作者提出了一種足以替代MNIST數(shù)據(jù)集的重建數(shù)據(jù)集,并且它不會帶來準確度的降低。作者將每個MNIST數(shù)字與它在NIST中的源相對應,并得到了更加豐富的元數(shù)據(jù),如作者標識符、分區(qū)標識符等。作者還重建了一個完整的MNIST測試集,其中包含60000個測試樣本,而不是通常使用的10000個樣本。由于多余的50000個樣本沒有被使用,因此可以用來探究25年來已有的MNIST實驗模型在該數(shù)據(jù)集上的測試效果。

引言

MNIST數(shù)據(jù)集被用作機器學習的基準集已經(jīng)超過二十年了。在過去的十年中,許多研究者都表示該數(shù)據(jù)集已經(jīng)被過度使用了。特別是它僅有10000個樣本用于測試,這引起了不少的關注。已有數(shù)百篇論文的方法在這個測試集上取得越來越好的效果。那這些模型是否在測試集上過擬合?我們還能相信在這個數(shù)據(jù)集上得到的新結論嗎?機器學習的數(shù)據(jù)集多久會變得無用?

NIST手寫字符集的第一部分已經(jīng)在一年前發(fā)布,它是一個由2000名人口普查局員工手寫的訓練集和500名高中生手寫的更具挑戰(zhàn)性的測試集。 LeCun、Cortes 和Burges的目標是創(chuàng)建一個具有類似分布的訓練集和測試集。這個過程生成了兩組60000個樣本的數(shù)據(jù)集,可能是由于當時電腦計算這些數(shù)據(jù)集的速度非常慢,他們將測試集下采樣到僅10000個樣本,因此多余的50000樣本從未被用于任何的測試。

本文研究的目的是重建MNIST預處理算法,以便將每個MNIST數(shù)字圖追溯到NIST中原始的手寫體。這種重建是基于可用信息,之后通過迭代細化來提升它的水平。第2節(jié)描述了這個過程,并計算了重建樣本與官方MNIST樣本的匹配程度。重建的訓練集包含了與原有MNIST訓練集相匹配的60000張圖片。類似的,重建的10000張測試圖片也與MNIST測試集里面的每張圖片相匹配。剩下的50000張是對在MNIST中丟失的50000張圖像的重建。

與Recht等人一致,重建這50000張樣本,使得研究人員可以量化官方MNIST測試集在25年來退化的過程。第3節(jié)比較和討論了在一些知名算法在原始MNIST測試集、重建MNIST測試集,以及丟失的50000測試樣本集上進行測試的性能。本文的實驗結果在不同數(shù)據(jù)集上驗證了Recht et al. [2018, 2019]指出的趨勢。

重構MNIST

圖1:LeCun94年文獻中描述MNIST的處理過程

圖1 顯示的是MNIST創(chuàng)建的過程。作者提到,該描述錯誤地描述了數(shù)字圖在hsf4分區(qū)中的位數(shù),在原始的NIST測試集中應該是58527,而不是58646。這兩段話給出了一個相對精確的處理方法,使用它生成的數(shù)據(jù)集比實際MNIST訓練集多了一個0,少了一個8。盡管并不匹配,這些類分布是如此相近,以至于hsf4分區(qū)中確實好像缺少了119位。那么應該如何來裁剪128x128的二進制NIST圖像?應該使用哪種啟發(fā)式算法來忽略不屬于圖片本身的噪聲像素?以及對于最終的中心坐標,應該如何四舍五入呢?

本文的初始重建算法是根據(jù)圖1中的描述得到的,但作者在Lush代碼庫里面發(fā)現(xiàn)了另一種重采用的算法,它不是使用雙線性插值或雙三次插值,而是計算輸入和輸出的精確重疊像素。作者重建的第一個QMNISTV1與實際的MNIST非常相似,但是存在著鋸齒圖像,因此作者通過微調初始中心坐標和重采樣算法,得到了QMNISTV2。

圖2:并排顯示MNIST和QMNIST的圖像,其中放大圖說明了重建的圖片是抗鋸齒像素的。

接著,作者又發(fā)現(xiàn)MNIST和QMNIST之間的最小距離L2是一個較可靠的指標,因此作者使用匈牙利算法計算匹配度,并進一步調整裁剪算法,這樣一步一步迭代調整,又可以得到QMNISTV3、V4、V5。最終得到了QMNIST。

評估QMNIST

作者做了一系列實驗來評估QMNIST與MNIST之間的差距。

表1:在MNIST和QMNIST之間抖動像素的四分位數(shù),L2距離表示一個像素的差異,L1距離表示像素之間的最大絕對差。

表2:在沒有平移或+-1像素平移下,MNIST和QMNIST訓練圖像標齊的數(shù)量

表3:在MNIST和QMNIST訓練集上訓練LeNet5卷積網(wǎng)絡,并在MNIST測試集、QMNIST測試集和QMNIST新部分上進行測試

重構觀察到的結論

重構MNIST,使作者發(fā)現(xiàn)了一些之前未報道過的關于MNIST的事情。

1、整個NIST手寫字符集只有三個重復的數(shù)字,其中只有一個屬于生成MNIST的字段,但被MNIST作者刪除了。

2、MNIST測試集的前5001張圖片似乎是從高中生(#2350-#2599)寫的圖片中隨機挑選出來的,接下來的4999張圖片是按順序(#35000-#39998)由48位人工普查局員工(#326-#373)撰寫的,雖然人數(shù)有點少,可能讓人擔心統(tǒng)計樣本有問題,但這些圖像比較干凈,幾乎對總測試誤差沒有影響。

3、第一個MNIST訓練集樣本中的偶數(shù)圖像與高中學生所寫的數(shù)字完全匹配,其余圖像是NIST圖像#0到#30949的順序。這意味著在連續(xù)的mini-batch的MNIST訓練圖像中,圖像可能是同一人寫的。因此作者建議在minibatch中,打亂訓練集。

4、28x28MNIST圖像的中心點存在舍入誤差。事實中,MNIST數(shù)字的平均中心原理圖像幾何中心至少半個像素。這很重要,因為使用正確的圖像進行訓練,然后在MNIST上進行測試,可能會使模型性能下降很多。

5、MNIST重采樣代碼中的缺陷會在粗字符的暗區(qū)域產生低幅周期性的圖像。這在Lush代碼中仍然可見,這些模式的周期取決于傳遞給重采樣代碼的輸入和輸出圖像的相對大小。

6、關于將二次采樣圖像的連續(xù)值像素轉換為整數(shù)值像素有一些奇怪的事情。我們當前的代碼將每個圖像中觀察到的范圍線性映射到區(qū)間【0.0,255.0】,之后四舍五入到最接近的整數(shù)。然而,像素比較直方圖顯示MNIST值128的像素更多,值255的像素更少。

圖3:像素直方圖對比,紅色為MNIST,藍色為QMNIST。

泛化性能評估

本節(jié)是利用未用的50000個樣本,來重新審視已經(jīng)報道過的一些論文結論。Recht等人對CIFAR10和ImageNet有類似的研究。作者使用了三個測試集:MNIST測試集(10000張)、重建的QMNIST測試集(10000張,QMNIST10),以及重建的未用的50000張測試集(QMNIST50)。在MNIST訓練集上,類似地,我們使用TQTM、TQTQ10和TQTQ50來表示結果。這些數(shù)據(jù)都沒有使用數(shù)據(jù)增強。作者使用了KNN、SVM、MLP、Lenet5等方法。

總結

作者重構了MNIST數(shù)據(jù)集,不僅是重新溯源到NIST源圖像和相關元數(shù)據(jù),還重構了原始MNIST測試集,包括從未發(fā)布的50000個測試樣本。經(jīng)過長時間的研究,作者的發(fā)現(xiàn)與Recht等人的成果一致。所有這些結果都表明“測試集腐爛”問題確實存在,但遠遠沒有研究者擔心的那么嚴重,重復使用相同測試集會影響性能,但它同樣有利于模型選擇。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8377

    瀏覽量

    132406
  • 數(shù)據(jù)集

    關注

    4

    文章

    1205

    瀏覽量

    24641
  • MNIST
    +關注

    關注

    0

    文章

    10

    瀏覽量

    3361

原文標題:MNIST重生,測試集增加至60000張!

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    計算機視覺/深度學習領域常用數(shù)據(jù)匯總

    `深度學習領域的“Hello World!”,入門必備!MNIST手寫數(shù)字數(shù)據(jù)庫,它有60000訓練
    發(fā)表于 08-29 10:36

    深度學習中開發(fā)測試的定義

    下載了含有貓的圖片(正樣本,又譯作正例),以及不含貓的圖片(負樣本,又譯作反例),從而得到了巨型的數(shù)據(jù)。他們將數(shù)據(jù)
    發(fā)表于 11-30 16:58

    開發(fā)測試應該有多大?

    對整體系統(tǒng)的性能進行高度可信的評估。種常見的啟發(fā)式策略是將整體 30% 的數(shù)據(jù)用作測試,這適用于總體數(shù)據(jù)量規(guī)模
    發(fā)表于 12-10 10:23

    清洗誤標注的開發(fā)測試樣本

    的標簽質量。處理這些誤標注的樣本將幫助你找出分類器的誤差是接近 1.4% 還是 2.0% ,差異顯著。在項目初始階段容許些誤標注的開發(fā)/測試
    發(fā)表于 12-19 09:48

    如何研究帶有菊花鏈路由的BGA測試樣本

    HI。我是名大學生,正在研究SMT焊點的可靠性。在我的研究中,我需要系列帶有菊花鏈路由的BGA測試樣本,如IPC-9701。在下面的網(wǎng)站上我發(fā)現(xiàn)你也做了些研究。所以我想知道你是否
    發(fā)表于 11-08 13:40

    TensorFlow邏輯回歸處理MNIST數(shù)據(jù)

    .train.labels。mnist.train.images 的每項都是范圍介于 0 到 1 的像素強度: 在 TensorFlow 圖中為訓練數(shù)據(jù)的輸入 x 和標簽 y 創(chuàng)
    發(fā)表于 08-11 19:36

    TensorFlow邏輯回歸處理MNIST數(shù)據(jù)

    .train.labels。mnist.train.images 的每項都是范圍介于 0 到 1 的像素強度: 在 TensorFlow 圖中為訓練數(shù)據(jù)的輸入 x 和標簽 y 創(chuàng)
    發(fā)表于 08-11 19:36

    如何利用keras打包制作mnist數(shù)據(jù)

    ~/.keras/datasets目錄存放mnist.npz 數(shù)據(jù),這是numpy格式的壓縮文件,所以可以用numpy打開。 import numpy as np file_pa
    發(fā)表于 08-18 06:12

    針對特定測試樣本的隱寫分析方法

    擁有大數(shù)據(jù)訓練資源的前提下,研究了隱寫對圖像特征的影響,找出了隱寫分析與圖像特征之間的重要關系,基于此提出了種為測試樣本選擇專用訓練的隱寫分析方法.以經(jīng)典的JPEG隱寫算法nsF5和主流的JPEG隱寫分析特征(CC-PEV、
    發(fā)表于 12-15 16:05 ?0次下載

    MNIST簡單的計算機視覺數(shù)據(jù)

    為了探索這點,我們可以把MNIST數(shù)據(jù)點看作是在784維立方體中固定的點。立方體的每個維度都對應
    的頭像 發(fā)表于 05-07 16:14 ?1.1w次閱讀

    如何用Fashion-MNIST數(shù)據(jù)搭建用于辨認時尚單品的機器學習模型

    去年八月份,德國研究機構Zalando Research在GitHub上推出了全新的數(shù)據(jù)其中訓練
    的頭像 發(fā)表于 11-08 08:59 ?2w次閱讀

    基于測試樣本誤差重構的協(xié)同表示分類方法

    。CRC利用范數(shù)正則化來解決測試樣本的線性表示問題,以期得到較穩(wěn)定的數(shù)值解。已有研究表明,正則化參數(shù)的選擇對協(xié)同表示的數(shù)值穩(wěn)定性起著非常重要的作用。文中提岀了種新的基于
    發(fā)表于 05-28 16:32 ?5次下載

    簡述PyTorch中mnist的transforms圖像處理

    60000訓練樣本和10000測試樣本組成,每個樣本都是
    的頭像 發(fā)表于 02-24 10:43 ?526次閱讀
    簡述PyTorch中<b class='flag-5'>mnist</b>的transforms圖像處理

    兆易創(chuàng)新“種NAND閃存芯片的測試樣本”專利獲授權

     根據(jù)專利摘要,本發(fā)明實際公開了nand閃存芯片的測試樣本測試樣本由多個相同的樣本區(qū)域組成,每個樣本區(qū)域包含多個相鄰的數(shù)據(jù)塊。相鄰的幾個數(shù)
    的頭像 發(fā)表于 10-13 09:47 ?640次閱讀
    兆易創(chuàng)新“<b class='flag-5'>一</b>種NAND閃存芯片的<b class='flag-5'>測試樣本</b>”專利獲授權

    圖像識別算法的測試方法有哪些

    圖像識別算法的測試方法是廣泛而深入的話題,涉及到多個方面。 數(shù)據(jù)的選擇 : 標準數(shù)據(jù) :使用廣泛認可的數(shù)據(jù)
    的頭像 發(fā)表于 07-16 11:06 ?452次閱讀