精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

會話式機(jī)器閱讀理解概述

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2020-11-25 16:07 ? 次閱讀

1

會話式機(jī)器閱讀理解是什么?

如何在會話式閱讀理解里面能夠建模它的implicative reasoning,即如何去學(xué)習(xí)會話與閱讀理解篇章之間的蘊(yùn)含關(guān)系。 在這篇文章中,講者概述了兩種常見閱讀理解的類型: 第一種是標(biāo)準(zhǔn)的閱讀理解,該模式是指,給定一篇描述型的文章和一個基于事實(shí)型的問題,通過匹配文章和問題,從文章中抽取一個span來回答這個問題; 第二種是會話式的問答,與標(biāo)準(zhǔn)的單輪問答不同,需要追問新問題,即follow up question,同時問題是以交互的形式出現(xiàn)。會話式問答,存在兩個挑戰(zhàn),一個是需要能理解篇章,另一個是能夠理解交互的會話本身。 基于會話式問答,講者引入一個例子簡單說明(圖1)。

比如,用戶簡單描述了自己的情況(Scenario),但用戶的問題并不能直接從文章(Rule Text)中獲取,往往這個文章可能是一個比較通用的、相當(dāng)于是一個法規(guī)或者法律的篇章。 比如,說明能夠申請7a貸款的人,需要具備什么樣的條件,但針對用戶問題在文章中沒有直接的答案,必須和用戶進(jìn)行一個交互,才能得到明確的回答。例子中,成功申請貸款的條件有三個,所以還需再問另外的條件。 比如,能不能夠在別的地方獲取它的資金來源,假如用戶說no的話,這時候就可以給他一個答案,也就是說你可以申請。 因此,在這種情形下,就需要既能夠讀懂這篇文章,理解文章中的規(guī)則,也要能夠主動地和用戶交互,從用戶那邊獲取一些需要知道的信息,最終再給他一個決策。

圖1 定義該項(xiàng)任務(wù)常用的數(shù)據(jù)集是ShARC (shaping answers with rules through conversation 的簡稱),數(shù)據(jù)集的設(shè)定是:給定Rule Text;用戶描述自己的Scenario(Background);用戶提出question;已有的問答(Dialog History)。 整個過程可以概述為,由于用戶給定的background往往不明確,機(jī)器需要進(jìn)行幾輪交互,然后從交互中獲取一些跟規(guī)則有關(guān)的信息,然后告訴用戶具體答案。 整個任務(wù)有兩個子任務(wù): 任務(wù)一,整合Rule Text,Scenario,Question以及通過幾輪交互從用戶獲取的信息,作為模型輸入,然后做出決策(Decision Making)。

該決策包含四種類型:一種是根據(jù)現(xiàn)有的信息能夠作出yes or no 的決策;或者有些情況下,用戶的問題可能與給定Rule Text無關(guān),或根據(jù)Rule Text并不能解決問題,則會出現(xiàn)unanswerable的答案;另一種情況是Rule Text中需要滿足很多條件,但有些條件機(jī)器不確定是否滿足,需要作出inquire的決策,主動從用戶那里獲取更多信息,直至幾輪交互后能夠作出yes or no的決策。 任務(wù)二,如果生成的決策是inquire,則需要機(jī)器問一個follow-up question,該問題能根據(jù)Rule Text引導(dǎo)用戶提供一些沒有提供的信息,便于進(jìn)一步的決策。

圖2 2

會話式機(jī)器閱讀理解的初探

2.1 模型介紹 負(fù)采樣 針對于該任務(wù),講者主要介紹了兩項(xiàng)工作,首先是發(fā)表于ACL2020的文章“Explicit Memory Tracker with Coarse-to-Fine Reasoning for Conversational Machine Reading”。 該工作的貢獻(xiàn)有兩個: a. 針對決策,提出了explicit tracker,即能夠顯示的追蹤文章中條件是否被滿足; b. 采用coarse-to-fine方法抽取Rule Text中沒有被問到的規(guī)則、條件等。

圖3 模型主要包括了四部分:1.Encoding→ 2.Explicit Memory Tracking→ 3.Decision Making→ 4.Question Generation,整體結(jié)構(gòu)如下:

圖4 (1) Encoding 將Rule Text中的句子分開,比如分為三個句子,在每個句子前加一個[CLS]表征句子特征,同時把queestion,scenario以及用戶的會話歷史加起來,也用[CLS]表征,拼接起全部特征后,通過BERT進(jìn)行encoding。

圖5 (2) Explicit Memory Tracking 該部分的目的在于挖掘出存在于Relu Text的句子中與用戶提供的信息(比如initial question 和dialog history)之間的implication。 針對于此,提出了explict memory tracker,類似于recurrent的思想,逐步的把用戶的信息和Relu Text中的規(guī)則進(jìn)行交互,從而更新每一個規(guī)則的memory里對應(yīng)的value,最終得到每一個條件滿足,不滿足或者不知道的一個狀態(tài)。 經(jīng)過n次更新完后,每一個rule 都會得到key-value對。

圖6 (3)Decision Making 對n次更新完后的key-value做self-attention,經(jīng)過一個線性層做四分類,即Yes, No, Irrelevant, Inquire。

圖7 同時,還設(shè)計了一個subtask,即對最終更新完之后的key-value做一個預(yù)測,顯示的預(yù)測該規(guī)則是Entailment,Prediction還是Unknown。該預(yù)測任務(wù)和Decision Making一起進(jìn)行訓(xùn)練。

圖8 (4)Question Generation 若得到的決策是Inquire,就要求繼續(xù)做一個follow-up question的generation。 主要包括兩個步驟: 第一步,從rule 中抽取一個span,具體是使用了一種coarse-to-fine 的做法,如下圖所示。由于在Entailment prediction,句子的unknown分?jǐn)?shù)越高,表示該句子越可能被問;若句子狀態(tài)是Entailment或者Contradiction,說明該句子狀態(tài)已知,沒必要繼續(xù)問下去。 因此,選擇每一個句子在Entailment prediction中unknown的分?jǐn)?shù),并在每一個句子中計算抽取start和end的分?jǐn)?shù),然后將這兩個分?jǐn)?shù)相乘,綜合判斷哪一個span最有可能被問到。

圖9 第二步,就是把span和rule 拼接起來,經(jīng)過一個預(yù)訓(xùn)練模型將其rephrase一個question。

圖10 2.2 實(shí)驗(yàn)驗(yàn)證 負(fù)采樣 使用ShARC數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)驗(yàn)證,包含了兩個任務(wù)的評價:分別為對于Decision Making任務(wù)采用 Marco-Accuracy 和Micro-Accuracy評價;以及對于問題生成采用BLEU Score評價。 此外,講者考慮到在end-to-end evaluation時,存在一個缺點(diǎn),也就是說,對于評價問題生成時,模型是基于決策這部分的水平去做問題生成的評價,這使得每個模型之間問題生成的表現(xiàn)不好比較,因此提出一個oracle question generation evaluation,即只要當(dāng)Ground truth decision 是inquire,就對其問題生成的水平進(jìn)行評價。 在測試集上得到的結(jié)果驗(yàn)證了所提出的Entailnment Memory Tracker(EMT)模型較其他模型效果有很大提升,尤其在問題生成方面效果顯著。

表1 具體分析每一類決策的準(zhǔn)確率,可驗(yàn)證Inquire的效果要更好,主要因?yàn)槟P湍茱@式的追蹤模型的一些狀態(tài),而不是簡單的學(xué)習(xí)模型中一些Pattern。 此外,在oracle question generation evaluation數(shù)據(jù)集上,與之前最好的模型E3,以及加上UniLM的模型進(jìn)行對比,同樣也證明了采用Coarse-to-Fine的方法抽取span,在問題生成方面具有更好的效果。

表2 同時,講者給出了一個例子,更形象明白的說明了所提出的模型具備可解釋性。

圖11 3

如何更好地進(jìn)行會話式機(jī)器閱讀理解

3.1 問題提出負(fù)采樣 進(jìn)一步,講者介紹了第二項(xiàng)工作,該工作與前者的側(cè)重點(diǎn)有所不同,存在兩個差異: 第一,document interpretation,主要由于第一項(xiàng)工作只是簡單的對句子進(jìn)行了一個切分,但實(shí)際上有些conditions(比如,上述例子中的American small business for profit business)是長句子中從句的條件,因此,第二項(xiàng)工作側(cè)重如何去理解這樣的條件。比如,能申請7(a)貸款,需要滿足(①==True and ②==True and ③==True)的條件,這在第一項(xiàng)工作中是沒有被建模的。

圖12 第二,dialogs understanding,即對于會話并沒有做特別顯式的理解。比如,在會話第一輪發(fā)現(xiàn)rule之間是and的關(guān)系,并且在Scenairo中抽取出條件,說明第一個rule是true,但還要繼續(xù)問第二個和第三個rule,所以給定Inquire的決策,直至滿足所有的rule后,才能給一個“You can apply the loan”的回答。

3.2 模型介紹負(fù)采樣 因此,該項(xiàng)工作主要基于這兩點(diǎn),提出先采用Discourse Segmentation的方法顯式的把條件更好地抽取出來,之后做Entailment Reasoning 顯式地預(yù)測每一個狀態(tài)是否被滿足,如果預(yù)測結(jié)果是Inquire,還需要做一個Follow-up Question Generation。

具體的,在discourse segmentation 中主要有兩個目標(biāo):其一是明白Rule Text中的邏輯關(guān)系;其二是將句子中的條件更好地抽取出來。比如,對于一個rule采用Discourse Segmentation的方法將其抽取成三個elementary discourse unit (EDU),比如,下圖中EDU1 ,EDU3是條件,然后EDU2是一個結(jié)果,這樣的一個關(guān)系。

圖15 如何實(shí)現(xiàn)Entailment Reasoning? 與工作一類似,在EDU抽取之后,將其與之前的用戶Question,Scenairo 以及Dialog History拼接起來,經(jīng)過預(yù)訓(xùn)練模型,得到每一個phrase的表征。然后采用多層transformer模型預(yù)測rule中每一個EDU 的狀態(tài),是Entailment、Contradiction,或者Neutral。 多層transformer模型較之前recurrent思想的模型更優(yōu)秀,其不僅能在用戶信息與rule之間做交互,也能更好的理解rule本身的邏輯結(jié)構(gòu)(比如,conjunction,disconjunction等 )。 進(jìn)一步,如何實(shí)現(xiàn)Decision Making? 在做決策時,根據(jù)學(xué)習(xí)到的Entailment、 Contradiction、Neutral向量,去映射前一步做Entailment Prediction的三個分?jǐn)?shù),得到每一個EDU的狀態(tài)vector,同時拼接該狀態(tài)vector與EDU本身的語義表示,作為Decision Classifier 輸入,從而得到?jīng)Q策。

圖163.3實(shí)驗(yàn)驗(yàn)證及結(jié)論負(fù)采樣 同樣地,實(shí)驗(yàn)也是在ShARC數(shù)據(jù)集上進(jìn)行。實(shí)驗(yàn)結(jié)果表明,使用discourse segmentation加上更好的更顯式的Reasoning的模式,較之前使用EMT模型具有更好的性能表現(xiàn),在Micro Accuracy和Macro Accuracy上差不多高出4%。

表3 在Ablation Study中,首先對比了RoBERTa和BERT之間的區(qū)別,表明了RoBERTa對于Reasoning的任務(wù)具有一定的貢獻(xiàn);其次,說明了采用discourse segmentation劃分一個句子為多個EDU形式的效果優(yōu)于僅對句子進(jìn)行劃分的結(jié)果;然后,證明了采用Transformer顯示地對用戶信息和問題之間做交互是有必要的;最后,證明了拼接Entailment vector和EDU本身的語義表示,對最終決策具有相當(dāng)大的貢獻(xiàn)。

表4 進(jìn)一步,分析了不同邏輯結(jié)構(gòu)下模型的結(jié)果表現(xiàn)。這里粗略分成4種規(guī)則的邏輯結(jié)構(gòu),即Simple、Disjunction、Conjunction以及Other。結(jié)果表示,模型在Simple形式下具有最好效果,然而在Disjunction形式下效果較差。

圖17 為什么模型對于Disjunction,做出的決策效果較差? 考慮到模型涉及兩部分內(nèi)容,一是dialogue understanding;二是對 scenario的理解。 因此,講者進(jìn)一步做了如下實(shí)驗(yàn),就是把這兩塊內(nèi)容分開,選擇一個只用到dialogue understanding 的子集,再選擇一個只用到scenario Interpretation的子集,進(jìn)行實(shí)驗(yàn)。 結(jié)果表明,只用到dialogue understanding 的子集的模型效果要優(yōu)于用到整個數(shù)據(jù)集的效果,但在scenario Interpretation的子集上,實(shí)驗(yàn)效果差了很多。 該現(xiàn)象的原因在于,用戶自己的background (scenario)可能用到了很多reasoning的方式,與rule 不完全一樣,因此對scenario的理解是比較差的。很多時候scenario里提到了關(guān)鍵信息但是模型并沒有抽取成功,從而繼續(xù)做出inquire的決策。這也可能是導(dǎo)致Disjunction決策效果較差的原因。

圖18 4

總結(jié)

綜上,講者團(tuán)隊(duì)分別提出了Explicit Memory Tracker with Coarse-to-Fine Reasoning 以及Discourse aware Entailment Reasoning的方法,并且在ShARC數(shù)據(jù)集上效果很好,同時設(shè)計實(shí)驗(yàn)分析了數(shù)據(jù)集本身的難點(diǎn)以及模型的缺陷,為后續(xù)研究指明可拓展方向。

責(zé)任編輯:xj

原文標(biāo)題:香港中文大學(xué)高一帆博士:會話式機(jī)器閱讀理解

文章出處:【微信公眾號:通信信號處理研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 閱讀
    +關(guān)注

    關(guān)注

    0

    文章

    10

    瀏覽量

    11547
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8378

    瀏覽量

    132425

原文標(biāo)題:香港中文大學(xué)高一帆博士:會話式機(jī)器閱讀理解

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【「嵌入Hypervisor:架構(gòu)、原理與應(yīng)用」閱讀體驗(yàn)】+第7-8章學(xué)習(xí)心得

    的性能要求。 在學(xué)習(xí)過程中,我也遇到了一些困難和挑戰(zhàn)。例如,在理解嵌入Hypervisor的架構(gòu)原理和實(shí)際應(yīng)用時,需要掌握大量的專業(yè)術(shù)語和技術(shù)細(xì)節(jié),這對我來說是一個不小的挑戰(zhàn)。但是,通過反復(fù)閱讀、思考
    發(fā)表于 10-09 18:50

    【「嵌入Hypervisor:架構(gòu)、原理與應(yīng)用」閱讀體驗(yàn)】+第三四章閱讀報告

    在深入閱讀了《嵌入Hypervisor:架構(gòu)、原理與應(yīng)用》的第三、四章后,我對嵌入Hypervisor的設(shè)計與實(shí)現(xiàn)技術(shù)有了更為詳盡和系統(tǒng)的理解。以下是我對這兩章內(nèi)容的
    發(fā)表于 10-09 18:29

    【「嵌入Hypervisor:架構(gòu)、原理與應(yīng)用」閱讀體驗(yàn)】+第一二章讀后感

    。 總的來說,《嵌入Hypervisor:架構(gòu)、原理與應(yīng)用》的第一、二章為我提供了一個全面而深入的學(xué)習(xí)起點(diǎn),讓我對Hypervisor技術(shù)有了更清晰的認(rèn)識和理解。我相信,通過繼續(xù)閱讀本書的其他章節(jié),我能夠更深入地掌握嵌入
    發(fā)表于 10-09 18:22

    工業(yè)自動化時代,如何理解機(jī)器換人”和“人機(jī)協(xié)作”

    應(yīng)運(yùn)而生。本文將從不同角度解讀“機(jī)器換人”和“人機(jī)協(xié)作”的內(nèi)涵,分析其優(yōu)勢和劣勢,并給出相應(yīng)的思考和建議。如何理解機(jī)器換人?“機(jī)器換人”意味著人們用
    的頭像 發(fā)表于 09-06 15:08 ?1050次閱讀
    工業(yè)自動化時代,如何<b class='flag-5'>理解</b>“<b class='flag-5'>機(jī)器</b>換人”和“人機(jī)協(xié)作”

    《嵌入機(jī)電一體化系統(tǒng)設(shè)計與實(shí)現(xiàn)》讀后感

    更為深刻的理解。這本書不僅理論扎實(shí),而且實(shí)踐性強(qiáng),通過詳細(xì)的案例分析和操作步驟,為讀者展現(xiàn)了一個完整的設(shè)計和實(shí)現(xiàn)流程。 首先,本書開篇即對嵌入系統(tǒng)進(jìn)行了全面的概述,讓我對“嵌入”這一概念有了更深
    發(fā)表于 08-21 08:45

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】時間序列的信息提取

    本章主講時間序列的信息提取,章節(jié)中有許多概念定義和數(shù)學(xué)公式,并配有Python代碼演示,細(xì)細(xì)品讀與理解動手演練,還是很開拓思維視野的。下面以筆記形式進(jìn)行展開。 時間序列的信息提取是時間序列分析的一
    發(fā)表于 08-17 21:12

    【《時間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 時間序列的信息提取

    本人有些機(jī)器學(xué)習(xí)的基礎(chǔ),理解起來一點(diǎn)也不輕松,加油。 作者首先說明了時間序列的信息提取是時間序列分析的一個重要環(huán)節(jié),目標(biāo)是從給定的時間序列數(shù)據(jù)中提取出有用的信息和特征,以支持后續(xù)的分析和預(yù)測任務(wù),可以
    發(fā)表于 08-14 18:00

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時間序列分析的基礎(chǔ)知識,更巧妙地展示了機(jī)器學(xué)習(xí)如何在這一領(lǐng)域發(fā)揮巨大潛力,使得
    發(fā)表于 08-12 11:21

    【《時間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 了解時間序列

    相等間隔的時間段內(nèi)依照給定的采樣率對某種潛在過程進(jìn)行觀測的結(jié)果。時間序列數(shù)據(jù)本質(zhì)上反映的是某個或者某些隨機(jī)變量隨時間不斷變化的趨勢。 因此,時間序列可以簡單的理解為不同時刻采集的一串?dāng)?shù)據(jù),使用機(jī)器
    發(fā)表于 08-11 17:55

    【「時間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】全書概覽與時間序列概述

    與時間序列概述閱讀,對概述整體輪廓有初步了解把握,對時間序列概念及應(yīng)用有了進(jìn)一步深入理解,是一個良好的開端。
    發(fā)表于 08-07 23:03

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    今天開始學(xué)習(xí)《大語言模型應(yīng)用指南》第一篇——基礎(chǔ)篇,對于人工智能相關(guān)專業(yè)技術(shù)人員應(yīng)該可以輕松加愉快的完成此篇閱讀,但對于我還是有許多的知識點(diǎn)、專業(yè)術(shù)語比較陌生,需要網(wǎng)上搜索學(xué)習(xí)更多的資料才能理解書中
    發(fā)表于 07-25 14:33

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 俯瞰全書

    ,了解此書的主要內(nèi)容: 書分四篇,基礎(chǔ)、入門、進(jìn)階和展望。 基礎(chǔ)篇從人工智能起源開始、之后又介紹了機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)和大語言模型的基礎(chǔ)知識,如果讀者學(xué)習(xí)過機(jī)器學(xué)習(xí)相關(guān)課程,那這個基礎(chǔ)篇的閱讀就會很輕
    發(fā)表于 07-21 13:35

    《深入理解FFmpeg閱讀體驗(yàn)》初識有感

    【感謝】 這兩年來,多有接觸到有關(guān)視頻的處理方法,特別是想把mp4轉(zhuǎn)換為gif,我搜索到FFmpeg是可以轉(zhuǎn)換的,而且速度及快。再有就是很多的嵌入開發(fā)板可以快速用FFmpeg來生成視頻流。這次論壇
    發(fā)表于 01-07 19:48

    《深入理解FFmpeg閱讀體驗(yàn)》+ 書收到了,嶄新的開篇

    今天收到了《深入理解FFmpeg》 嶄新的書,一個在2022年較近距離接觸過卻尚未深入研究的領(lǐng)域圖像處理。最近剛好在作這方面的研究,希望自己可以把握這次機(jī)會,好好學(xué)習(xí)下 FFMpeg,相信可以讓自己
    發(fā)表于 01-07 18:57

    基于機(jī)器翻譯增加的跨語言機(jī)器閱讀理解算法

    近日,阿里云人工智能平臺 PAI 與華南理工大學(xué)朱金輝教授團(tuán)隊(duì)、達(dá)摩院自然語言處理團(tuán)隊(duì)合作在自然語言處理頂級會議 EMNLP2023 上發(fā)表基于機(jī)器翻譯增加的跨語言機(jī)器閱讀理解算法 X
    的頭像 發(fā)表于 12-12 10:28 ?557次閱讀
    基于<b class='flag-5'>機(jī)器</b>翻譯增加的跨語言<b class='flag-5'>機(jī)器</b><b class='flag-5'>閱讀</b><b class='flag-5'>理解</b>算法