精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OpenAI新GPU計算內核:頂尖的文本情感分析和文本圖像生成能力

mK5P_AItists ? 2017-12-11 09:29 ? 次閱讀

OpenAI的研究人員們近日發布了一個高度優化的 GPU 計算內核,它可以支持一種幾乎沒被人們探索過的神經網絡架構:帶有稀疏塊權重的網絡。取決于不同的稀疏程度,這些內核的運行速度可以比 cuBLAS 或者 cuSPARSE 快一個數量級。OpenAI的研究人員們已經通過這些內核在文本情感分析和文本圖像的生成中得到了頂尖的成果。

深度學習領域,模型架構和算法的開發很大程度上受制于GPU對基礎計算操作的支持到什么程度。具體來說,其中有一個問題就是通過 GPU 實現稀疏線性操作時計算效率太低。OpenAI這次發布的計算內核就是為了支持這個的,同時也包含一些實現的多種稀疏模式的初期成果。這些成果已經展示出了一些潛力,不過還算不上是決定性的證據。OpenAI的研究人員們也邀請更多深度學習領域的研究人員一起參與,攜手繼續改進這個計算內核,讓更多的計算架構變得可能。

密集連接的層(左側)可以用稀疏的、更寬的層(中間)或者稀疏的、更深的層(右側)替代,而計算時間幾乎不變

稀疏權重矩陣與密集權重矩陣有明顯的不同,就是其中的很多值都是零。稀疏權重矩陣是許多模型所向往的基礎部件,因為有稀疏的塊參與的矩陣乘法和卷積操作的計算成本只是和塊中非零數字的數目成比例而已。稀疏性的一個明顯的好處,就是在給定的參數數目和計算資源限制下可以訓練比別的方法寬得多、深得多的神經網絡,比如實現帶有上萬個隱層神經元的LSTM網絡(當下能訓練的LSTM只有上千個隱層神經元而已)。

計算內核

密集權重矩陣(左)、稀疏塊權重矩陣(中)的示意圖。白色的區域意味著權重矩陣中對應的位置是0

這個計算內核可以讓全連接和卷積層高效地利用稀疏塊權重。對于卷積層來說,這個內核的輸入和輸出特征維度都可以是稀疏的;而空間維度中的連接性不受到任何影響。稀疏性的定義是在塊的級別上定義的(如上右圖),而且為大小為 8x8、16x16、32x32 的塊做了優化(在這里展示的就是 8x8 的塊)。在塊的級別上,稀疏模式是完全可以自己配置的。由于這個內核在計算時會直接跳過值為 0 的塊,所以消耗的計算資源就只和非零的權重的數目成正比,而不是像以往一樣和輸出/輸出特征的數目成正比。存儲這些參數的開銷同樣和非零的權重的數目成正比。

與 cuBLAS 相比,這個內核在不同稀疏比例下的加速倍數。測試條件:很寬的神經網絡(12288 個隱層神經元),塊大小為 32x32,mini-batch 大小為 32;測試硬件為 NVIDIATitanXPascalGPU,CUDA 版本為 8.0。在測試的這些稀疏比例下,相比 cuSPARSE 的速度提升比例還要高一些。

應用這個計算內核

OpenAI 的研究人員們也展示了一些在TensorFlow中進行稀疏矩陣乘法的示例代碼

importtensorflowastf

importnumpyasnp

hidden_size =4096

block_size =32

minibatch_size =64

# Create a (random) sparsity pattern

sparsity = np.random.randint(2, size=(hidden_size//block_size,hidden_size//block_size))

# Initialize the sparse matrix multiplication object

bsmm = BlocksparseMatMul(sparsity, block_size=block_size)

# Input to graph

x = tf.placeholder(tf.float32, shape=[None, hidden_size])

# Initialize block-sparse weights

w = tf.get_variable("w", bsmm.w_shape, dtype=tf.float32)

# Block-sparse matrix multiplication

y = bsmm(x, w)

# Run

sess = tf.InteractiveSession()

sess.run(tf.global_variables_initializer())

result = sess.run([y], feed_dict = {x: np.ones((minibatch_size,hidden_size), dtype='float32')})

print(result)

微縮 LSTM

稀疏塊內核有一種非常有意思的用途,就是用來創建微縮神經網絡。微縮圖之間可以進行連接,圖中的任意兩個節點都只需要很少的幾個步驟就可以連接起來,即便整張圖有數十億個節點也可以。OpenAI的研究人員們想要實現這樣的微縮連接性的原因是,即便網絡是高度稀疏的,他們仍然希望信息可以在整張圖中快速傳播。人類大腦就顯示出了微縮連接模式,從而也帶來了「如果LSTM有同樣的特性,它的表現能否有所提高」的問題。通過微縮稀疏連接性的應用,OpenAI 的研究人員們高效地訓練了帶有大約 2 萬個隱層神經元的 LSTM 模型,同時網絡的寬度也要比參數總數目類似的網絡寬 5 倍。訓練后的網絡在文本生成建模、半監督情感分類上都有更好的表現。

在微縮圖中,即便稀疏程度很高的情況下節點之間也只需要很少的步數就可以互相連接。上面動圖里顯示的是從二維 Watts-Strogatz 微縮圖中,中央的節點(像素)向外激活的情況;另外為了更好的觀感做了隨機的平滑。在這張圖中,不同節點之間路徑長度的平均值小于5,和OpenAI研究員們的LSTM實驗中Barabasi-Albert圖的狀況類似。

情感表征學習

OpenAI的研究人員們訓練了參數數目差不多的稀疏塊權重網絡和密集權重矩陣網絡,對比它們的表現。稀疏模型在所有的情感數據集上都取得了更好的表現。在IMDB數據集上,OpenAI的這個稀疏模型把此前最好的 5.91%錯誤率大幅降低到了 5.01%。相比OpenAI此前一些實驗中只在短句上有好的表現,這次在長句中也顯示出了有潛力的結果。

基于生成式密集和稀疏模型提取的特征訓練的線性模型的情感分類結果。這里的密集和稀疏模型有幾乎相等的參數數目。

壓縮任務的表現

借助稀疏的、更寬的LSTM模型,比特數每字符的壓縮結果在實驗中從 1.059進步到了 1.048,同樣是在具有差不多的參數數目的模型上達到的。帶有稀疏塊的線性層架構如果換成密集連接的線性層,這個結果也可以得到進一步的提高。OpenAI的研究人員們在用于CIFAR-10的PixelCNN++模型上做了一個簡單的修改,把正常的 2D卷積核換成了稀疏核,同時把網絡變得更深的同時保持其它的超參數不變。修改之后的網絡也把比特數每維度的數值從 2.92降低到了 2.90,達到了這個數據集上的最好結果。

未來研究方向

神經網絡中的多數權重在訓練結束后都可以剪枝。如果讓剪枝動作配合此次的稀疏內核使用,那推理時能節省多少計算時間、提高多少計算速度呢?

在生物大腦中,網絡的稀疏結構有一部分是在成長時確定的(成長的另一個作用是改變連接強度)。人造神經網絡中是否也能有類似的做法呢,就是不僅通過梯度學習連接權重,同時還學習最優的稀疏結構?近期有一篇論文就提出了一種學習稀疏塊RNN的方法,OpenAI最近也提出了一個算法用來在神經網絡中做L0規范化,兩者都可以在這個方向上起到作用。

OpenAI的研究人員們這次訓練了帶有上萬個隱層神經元的LSTM模型,帶來了更好的文本建模表現。那么更廣泛地說,帶有很大的權重矩陣的模型如果用了稀疏層,就可以保持與更小的模型一樣的參數數目和計算開銷。相信一定有一些領域能讓這種方法發揮很大的作用。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4765

    瀏覽量

    100568
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4703

    瀏覽量

    128729

原文標題:學界 | OpenAI 發布稀疏計算內核,更寬更深的網絡,一樣的計算開銷

文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    pyhanlp文本分類與情感分析

    預測接口都是線程安全的(被設計為不儲存中間結果,將所有中間結果放入參數棧中)。情感分析可以利用文本分類在情感極性語料上訓練的模型做淺層情感
    發表于 02-20 15:37

    一種有效的文本圖像二值化方法

    針對一般文本圖像二值化方法--全局閾值法和局部閾值法所存在的不足,提出了一種整體與局部相結合的二值化方法,該方法根據文本圖像的特點,自適應調整局部二值化的窗
    發表于 06-11 09:08 ?13次下載

    基于相容粗集的二值文本圖像數字水印方法

    針對二值文本圖像像素簡單、紋理復雜、信息隱藏的免疫力差的特點,提出了一種基于相容粗糙集的數字水印嵌入位置選擇方法。該方法把二值文本載體圖像劃分為不同的等價類
    發表于 08-12 16:54 ?14次下載

    基于灰度直方圖和譜聚類的文本圖像二值化方法

    基于灰度直方圖和譜聚類的文本圖像二值化方法:在自動文本提取中,經定位獲得的字符區域需二值化后方能有效識別,由于背景的復雜,常用的閾值化方法不能有效分割自然環境下
    發表于 10-29 13:08 ?18次下載

    基于多小波變換的文本圖像文種識別

    采用了基于多 小波變換 的文本圖像文種識別方法,提取多小波變換各子帶系數的能量特征,構造特征矢量,并采用LIBSVM進行多文種的分類。通過對10種語言文字的文本圖像進行實驗,表
    發表于 08-15 10:34 ?25次下載
     基于多小波變換的<b class='flag-5'>文本圖像</b>文種識別

    基于嶺回歸的稀疏編碼文本圖像復原方法

    為解決現有稀疏編碼方法在文本圖像復原中存在的編碼碼元表述空間有限和計算時間長的問題,提出了一種基于嶺回歸的稀疏編碼文本圖像復原方法。首先,該方法在訓練階段使用樣本圖像塊訓練出用于稀疏表
    發表于 11-28 17:10 ?1次下載

    基于Hash函數的文本圖像脆弱水印算法

    隨著互聯網的發展,電子商務和電子政務隨之興起,重要文件資料、經濟合同、電子發票等更多文本圖像需要網絡傳送。這些文件一旦出現惡意篡改而無法證明真偽,就會造成嚴重后果。因此,研究文本圖像認證方法
    發表于 12-04 16:04 ?0次下載

    基于語義的文本語義分析

    文本情感傾向性研究是人工智能的分支學科,涉及了計算語言學,數據挖掘,自然語言處理等多個學科。基于語義的情感傾向研究和基于機器學習的情感傾向研
    發表于 12-15 16:35 ?6次下載

    人工智能在文本創作上的發展分析

    AI在文本創作上的能力正在加強。人們對于人工智能的創作能力賦予了更大的想象力,尤其是在OpenAI 推出文本生成模型 GPT-2 后。
    發表于 07-08 09:53 ?1473次閱讀

    一種針對中英混合文本的多維度多情感分析方法

    針對中英混合微博文本情感分析冋題,提岀一種新的多維度多情感分析方法。將中英混合語言文本分別翻譯成
    發表于 03-16 15:15 ?16次下載
    一種針對中英混合<b class='flag-5'>文本</b>的多維度多<b class='flag-5'>情感</b><b class='flag-5'>分析</b>方法

    OpenAI又放大招:連接文本圖像的CLIP

    聽話聽音!OpenAI 踐行了這一想法,幾個小時前,OpenAI通過官方推特發布了兩個嶄新的網絡,一個叫DALL-E(參見今天推送的頭條),能夠通過給定的文本創建出圖片;一個叫CLIP,能夠將
    的頭像 發表于 04-18 10:42 ?2198次閱讀
    <b class='flag-5'>OpenAI</b>又放大招:連接<b class='flag-5'>文本</b>與<b class='flag-5'>圖像</b>的CLIP

    如何去解決文本圖像生成的跨模態對比損失問題?

    文本圖像的自動生成,如何訓練模型僅通過一段文本描述輸入就能生成具體的圖像,是一項非常具有挑戰
    的頭像 發表于 06-15 10:07 ?2705次閱讀
    如何去解決<b class='flag-5'>文本</b>到<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>的跨模態對比損失問題?

    基于BGRU的中文文本情感分析方法

    社交網絡作為社會生活不可或缺的一部分,針對其產生的文本數據進行情感分析已成為自然語言處理領域的一個研究熱點。鑒于深度學習技術能夠自動構建文本特征,人們已提出CNN( convoluti
    發表于 06-15 11:28 ?10次下載

    通過Arduino代碼生成器或藍牙加載圖像和文本

    電子發燒友網站提供《通過Arduino代碼生成器或藍牙加載圖像和文本.zip》資料免費下載
    發表于 11-28 09:17 ?1次下載
    通過Arduino代碼<b class='flag-5'>生成</b>器或藍牙加載<b class='flag-5'>圖像</b><b class='flag-5'>和文本</b>

    基于文本圖像模型的可控文本到視頻生成

    文本到視頻模型需要大量高質量的視頻和計算資源,這限制了相關社區進一步的研究和應用。為了減少過度的訓練要求,我們研究了一種新的高效形式:基于文本圖像模型的可控
    的頭像 發表于 06-14 10:39 ?925次閱讀
    基于<b class='flag-5'>文本</b>到<b class='flag-5'>圖像</b>模型的可控<b class='flag-5'>文本</b>到視頻<b class='flag-5'>生成</b>