精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP中的神經(jīng)網(wǎng)絡(luò)設(shè)計與學(xué)習(xí)

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2022-09-22 14:49 ? 次閱讀

神經(jīng)網(wǎng)絡(luò)技術(shù)是現(xiàn)代人工智能的關(guān)鍵技術(shù),在自然語言處理、圖像處理等領(lǐng)域表現(xiàn)出優(yōu)異效果。來自東北大學(xué)自然語言處理實驗室、小牛翻譯團隊的肖桐教授、博士生李垠橋、李北在CCMT 2022會議所進行的《自然語言處理中的神經(jīng)網(wǎng)絡(luò)設(shè)計與學(xué)習(xí)》演講報告,從神經(jīng)網(wǎng)絡(luò)架構(gòu)在自然語言處理中的發(fā)展、人工神經(jīng)網(wǎng)絡(luò)設(shè)計和自動化架構(gòu)設(shè)計三個方面對該領(lǐng)域技術(shù)發(fā)展進行了全面梳理,同時也對方向的未來發(fā)展進行了分析和探討。

近些年來,人工神經(jīng)網(wǎng)絡(luò)方法已經(jīng)成為了自然語言處理中最重要的范式之一。但是,大量依賴人工設(shè)計的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),導(dǎo)致自然語言處理領(lǐng)域的發(fā)展很大程度依賴于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)上的突破。由于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計大多源自研究人員的靈感和大量經(jīng)驗性嘗試,如何挖掘這些神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)背后的邏輯,如何系統(tǒng)化的思考不同神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)之間的內(nèi)在聯(lián)系,是使用這類方法時所需要深入考慮并回答的問題。甚至,可以想象,讓計算機自動設(shè)計神經(jīng)網(wǎng)絡(luò)架構(gòu),也可以成為進一步突破人類思維限制的方向之一。

在《自然語言處理中的神經(jīng)網(wǎng)絡(luò)設(shè)計與學(xué)習(xí)》中,講者們根據(jù)自身研究經(jīng)驗對上述問題進行了回答,對神經(jīng)網(wǎng)絡(luò)架構(gòu)的基本發(fā)展脈絡(luò)、常用的神經(jīng)網(wǎng)絡(luò)架構(gòu)的設(shè)計理念進行分析,同時對神經(jīng)網(wǎng)絡(luò)架構(gòu)的自動設(shè)計方法進行整理。這些內(nèi)容可以為相關(guān)研究者供模型架構(gòu)設(shè)計上的一些思路,以及實踐中的參考。同時,講者在分享中也呼吁研究者更多地以系統(tǒng)化的思考方式來看待神經(jīng)網(wǎng)絡(luò)方法在自然語言處理中的應(yīng)用,而非簡單像“黑盒”一樣使用它們。

da9c0b0c-3a34-11ed-9e49-dac502259ad0.png

第一部分:神經(jīng)網(wǎng)絡(luò)架構(gòu)在自然語言處理中的發(fā)展

報告的第一部分內(nèi)容由小牛翻譯聯(lián)合創(chuàng)始人、東北大學(xué)計算機學(xué)院博士生導(dǎo)師肖桐教授講述。首先回顧了自然語言處理中神經(jīng)網(wǎng)絡(luò)的發(fā)展,從上世紀五十年代的感知機開始到如今的預(yù)訓(xùn)練模型,為自然語言處理領(lǐng)域神經(jīng)網(wǎng)絡(luò)的發(fā)展構(gòu)建了一張脈絡(luò)圖。并以該圖為主線,梳理了自然語言處理領(lǐng)域里程碑級別的神經(jīng)網(wǎng)絡(luò)模型及其影響,包括NNLM、Word2Vec、RNN、Seq2Seq、Attention、Transformer、預(yù)訓(xùn)練模型等重要工作。接下來,以神經(jīng)網(wǎng)絡(luò)架構(gòu)設(shè)計思想為核心,介紹了從不同學(xué)科的視角看神經(jīng)網(wǎng)絡(luò),并以卷積神經(jīng)網(wǎng)絡(luò)和Transformer作實例探討了隱藏在復(fù)雜模型背后的神經(jīng)網(wǎng)絡(luò)設(shè)計靈感來源,包括卷積神經(jīng)網(wǎng)絡(luò)與人類視覺系統(tǒng)感受野的關(guān)系、Transformer位置編碼和自注意力機制設(shè)計靈感來源。最后,列舉了設(shè)計神經(jīng)網(wǎng)絡(luò)架構(gòu)面臨的四個挑戰(zhàn)。

第二部分:基于人工先驗知識的神經(jīng)網(wǎng)絡(luò)設(shè)計

報告的第二部分由東北大學(xué)博士生李北講述。本部分主要關(guān)注基于人工先驗的神經(jīng)網(wǎng)絡(luò)設(shè)計,內(nèi)容圍繞基于Transformer模型的網(wǎng)絡(luò)結(jié)構(gòu)改進工作展開,包括基于跨層連接的結(jié)構(gòu)優(yōu)化、注意力機制的改進、多尺度建模、混合專家系統(tǒng)及應(yīng)用數(shù)值理論提高參數(shù)高效性五方面工作。在每個方面,講者從方法的早期靈感開始介紹,并介紹了方法的發(fā)展脈絡(luò)和隨后的改進工作,對近年來結(jié)構(gòu)優(yōu)化相關(guān)的工作實現(xiàn)了大規(guī)模的覆蓋。其中詳細討論了關(guān)于模型對淺層信息利用不充分,深層網(wǎng)絡(luò)的訓(xùn)練穩(wěn)定性,深層網(wǎng)絡(luò)的深度退化問題,注意力的局部建模,多頭注意力的增強,注意力、架構(gòu)、語義單元多尺度網(wǎng)絡(luò),多分支網(wǎng)絡(luò)設(shè)計,顯性建模和隱性建模等問題。

第三部分:自動化設(shè)計神經(jīng)網(wǎng)絡(luò)架構(gòu)

報告的第三部分由東北大學(xué)博士生李垠橋講述。主要圍繞如何通過自動化地方式對神經(jīng)網(wǎng)絡(luò)架構(gòu)進行設(shè)計而展開。在該部分中講者首先介紹了什么是神經(jīng)網(wǎng)絡(luò)架構(gòu)的自動設(shè)計,對比了機器學(xué)習(xí)中三種不同的范式的差異,然后通過對神經(jīng)網(wǎng)絡(luò)技術(shù)發(fā)展的歷史回顧切入,對自動化架構(gòu)設(shè)計在其中扮演的角色進行了梳理。在此之后講者對自動化架構(gòu)設(shè)計的整體框架進行細致的介紹,包括搜索空間、搜索策略以及性能評估,讓大家對這類方法本身具備清楚的認知。再后講者以自然語言處理任務(wù)為例介紹了如何應(yīng)用自動化機器學(xué)習(xí)的方式對結(jié)構(gòu)進行優(yōu)化和設(shè)計,對自動化架構(gòu)搜索在自然語言處理領(lǐng)域中所要解決的問題進行分析。最終,還對目前自動化架構(gòu)設(shè)計中依舊存在的重要問題進行了探討,希望對讀者有進一步的幫助和啟發(fā)。

部分slides如下:

dab54cb6-3a34-11ed-9e49-dac502259ad0.png

dad82fe2-3a34-11ed-9e49-dac502259ad0.png

daf5da24-3a34-11ed-9e49-dac502259ad0.png

db05b638-3a34-11ed-9e49-dac502259ad0.png

db121464-3a34-11ed-9e49-dac502259ad0.png

db2f943a-3a34-11ed-9e49-dac502259ad0.png

db4db000-3a34-11ed-9e49-dac502259ad0.png

db6cc6ca-3a34-11ed-9e49-dac502259ad0.png

db8f8f5c-3a34-11ed-9e49-dac502259ad0.png

dbb0bff6-3a34-11ed-9e49-dac502259ad0.png

dbcf5b0a-3a34-11ed-9e49-dac502259ad0.png

dbfd08f2-3a34-11ed-9e49-dac502259ad0.png

dc1800ee-3a34-11ed-9e49-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4763

    瀏覽量

    100541
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    614

    瀏覽量

    13507
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    487

    瀏覽量

    22012

原文標題:CCMT講習(xí)班 | NLP中的神經(jīng)網(wǎng)絡(luò)設(shè)計與學(xué)習(xí)|附338頁ppt與講解文章

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時代,錯綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進人們的視線,通過深度
    的頭像 發(fā)表于 01-11 10:51 ?1917次閱讀
    詳解深度<b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

    源程序  5.3 Gaussian機  第6章自組織神經(jīng)網(wǎng)絡(luò)  6.1 競爭型學(xué)習(xí)  6.2 自適應(yīng)共振理論(ART)模型  6.3 自組織特征映射(SOM)模型  6.4 CPN模型  第7章 聯(lián)想
    發(fā)表于 03-20 11:32

    神經(jīng)網(wǎng)絡(luò)資料

    基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)算法
    發(fā)表于 05-16 17:25

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    傳播的,不會回流),區(qū)別于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN。BP算法(Back Propagation):誤差反向傳播算法,用于更新網(wǎng)絡(luò)的權(quán)重。BP神經(jīng)網(wǎng)絡(luò)思想:表面上:1. 數(shù)據(jù)信息的前向傳播,
    發(fā)表于 07-21 04:00

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    ,同理,閾值越大,則容納的模式類也就越多----------以上純屬個人理解,如果有錯誤歡迎指正。ART比較好地緩解了競爭型學(xué)習(xí)的“可塑性-穩(wěn)定性窘境”,其中可塑性指神經(jīng)網(wǎng)絡(luò)要能夠學(xué)習(xí)
    發(fā)表于 07-21 04:30

    【AI學(xué)習(xí)】第3篇--人工神經(jīng)網(wǎng)絡(luò)

    `本篇主要介紹:人工神經(jīng)網(wǎng)絡(luò)的起源、簡單神經(jīng)網(wǎng)絡(luò)模型、更多神經(jīng)網(wǎng)絡(luò)模型、機器學(xué)習(xí)的步驟:訓(xùn)練與預(yù)測、訓(xùn)練的兩階段:正向推演與反向傳播、以TensorFlow + Excel表達訓(xùn)練流程
    發(fā)表于 11-05 17:48

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達能力,可以通過
    發(fā)表于 09-07 07:43

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    network,DBN)[24], 從此拉開了深度學(xué)習(xí)大幕。隨著深度學(xué)習(xí)理論的研究和發(fā)展,研究人員提 出了一系列卷積神經(jīng)網(wǎng)絡(luò)模型。為了比較不同模型 的質(zhì)量,收集并整理了文獻模型在分
    發(fā)表于 08-02 10:39

    卷積神經(jīng)網(wǎng)絡(luò)簡介:什么是機器學(xué)習(xí)?

    抽象人工智能 (AI) 的世界正在迅速發(fā)展,人工智能越來越多地支持以前無法實現(xiàn)或非常難以實現(xiàn)的應(yīng)用程序。本系列文章解釋了卷積神經(jīng)網(wǎng)絡(luò) (CNN) 及其在 AI 系統(tǒng)機器學(xué)習(xí)的重要性
    發(fā)表于 02-23 20:11

    NLP多任務(wù)學(xué)習(xí)案例分享:一種層次增長的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

    NLP 領(lǐng)域研究者們開始研究基于神經(jīng)網(wǎng)絡(luò)的多任務(wù)學(xué)習(xí)。大多數(shù)方法通過網(wǎng)絡(luò)參數(shù)共享來學(xué)習(xí)任務(wù)間的關(guān)聯(lián),提升各任務(wù)效果。
    發(fā)表于 01-05 16:10 ?4376次閱讀

    NLP的深度學(xué)習(xí)技術(shù)概述

    該項目是對基于深度學(xué)習(xí)的自然語言處理(NLP)的概述,包括用來解決不同 NLP 任務(wù)和應(yīng)用的深度學(xué)習(xí)模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積
    的頭像 發(fā)表于 03-01 09:13 ?4771次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>中</b>的深度<b class='flag-5'>學(xué)習(xí)</b>技術(shù)概述

    神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)控制的學(xué)習(xí)課件免費下載

    本文檔的主要內(nèi)容詳細介紹的是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)控制的學(xué)習(xí)課件免費下載包括了:1生物神經(jīng)元模型,2人工神經(jīng)元模型,3人工
    發(fā)表于 01-20 11:20 ?7次下載
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>控制的<b class='flag-5'>學(xué)習(xí)</b>課件免費下載

    什么是神經(jīng)網(wǎng)絡(luò)?什么是卷積神經(jīng)網(wǎng)絡(luò)?

    在介紹卷積神經(jīng)網(wǎng)絡(luò)之前,我們先回顧一下神經(jīng)網(wǎng)絡(luò)的基本知識。就目前而言,神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)算法的核心,我們所熟知的很多深度學(xué)習(xí)算法的背后其實都
    的頭像 發(fā)表于 02-23 09:14 ?3352次閱讀

    人工神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    著重要作用。BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network, BPNN)是人工神經(jīng)網(wǎng)絡(luò)的一種常見的多層前饋神經(jīng)網(wǎng)絡(luò),
    的頭像 發(fā)表于 08-22 16:45 ?4289次閱讀