精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

實(shí)體關(guān)系抽取模型CasRel

深度學(xué)習(xí)自然語言處理 ? 來源:AI算法小喵 ? 作者:深度學(xué)習(xí)自然語言 ? 2022-07-21 14:11 ? 次閱讀

寫在前面

今天來跟大家分享一篇發(fā)表在2020ACL上的實(shí)體關(guān)系抽取論文CasRel。

論文名稱:《A Novel Cascade Binary Tagging Framework forRelational Triple Extraction》

論文鏈接:https://aclanthology.org/2020.acl-main.136.pdf

代碼地址:https://github.com/weizhepei/CasRel

1. 關(guān)系抽取任務(wù)定義

實(shí)體關(guān)系抽取(關(guān)系抽取)是構(gòu)建知識圖譜非常重要的一環(huán),其旨在識別實(shí)體之間的語義關(guān)系。換句話說,關(guān)系抽取就是從非結(jié)構(gòu)化文本即純文本中抽取實(shí)體關(guān)系三元組(SRO)。這里 代表頭實(shí)體, 代表關(guān)系, 代表尾實(shí)體。

6ad2a92a-08bb-11ed-ba43-dac502259ad0.png

上圖展示了3個例子:

第一句文本中,“劉翔”和“上海”兩個實(shí)體之間的語義關(guān)系是“出生地”。

第二句文本中,“張藝謀”與“菊豆”兩個實(shí)體之間的語義關(guān)系是“導(dǎo)演”。

第三句文本中,“史蒂夫.喬布斯”與“蘋果”之間的語義關(guān)系是“創(chuàng)始人”。

2. 關(guān)系抽取方法

關(guān)系抽取方法主要可分為兩類:

管道學(xué)習(xí)方法(pipeline):管道學(xué)習(xí)方法通常先抽取句子中的實(shí)體,然后再對實(shí)體對進(jìn)行關(guān)系分類,從而找出SRO三元組。

聯(lián)合學(xué)習(xí)方法(Joint):聯(lián)合學(xué)習(xí)方法同時進(jìn)行實(shí)體識別和實(shí)體對的關(guān)系分類兩個子任務(wù)。

許多實(shí)驗(yàn)證明聯(lián)合學(xué)習(xí)方法由于考慮了兩個子任務(wù)之間的信息交互,大大提升了實(shí)體關(guān)系抽取的效果,所以目前針對實(shí)體關(guān)系抽取任務(wù)的研究大多采用聯(lián)合學(xué)習(xí)方法。

6af353aa-08bb-11ed-ba43-dac502259ad0.png

進(jìn)一步地,聯(lián)合學(xué)習(xí)方法又可以細(xì)分為以下兩種:基于參數(shù)共享的聯(lián)合模型;基于聯(lián)合解碼的聯(lián)合模型。另一方面,解碼方式對實(shí)體關(guān)系抽取性能的影響也很大,主要的解碼方式有三種:基于序列標(biāo)注;基于指針網(wǎng)絡(luò);基于片段分類。

6b184d68-08bb-11ed-ba43-dac502259ad0.png

《Joint Extraction of Entities and Relations Based on a Novel Tagging Scheme》[1]是采用序列標(biāo)注的聯(lián)合解碼的典型方法。簡單地說,它將實(shí)體關(guān)系抽取當(dāng)作了序列標(biāo)注問題,設(shè)計了比較特別的標(biāo)注標(biāo)簽可以實(shí)現(xiàn)實(shí)體、關(guān)系的聯(lián)合抽取(如上圖所示)。

3. 關(guān)系抽取難點(diǎn)

6b2d40ba-08bb-11ed-ba43-dac502259ad0.png

如上圖所示,和大多數(shù)的自然語言處理任務(wù)一樣,關(guān)系抽取同樣有許多難點(diǎn)。我們今天所分享的CasRel關(guān)注的難點(diǎn)主要是三元組的重疊問題(實(shí)體關(guān)系重疊),即:輸入文本中有多個實(shí)體關(guān)系三元組,彼此之間可能共享了某些實(shí)體。

6b477732-08bb-11ed-ba43-dac502259ad0.png

上圖給出了部分示例:

(劉翔, 出生地, 上海)與(劉翔, 出生時間, 1983年7月13日)都有“劉翔”;

(《少林足球》, 導(dǎo)演, 周星馳)、(《少林足球》, 編劇, 周星馳)、(周星馳, 參演, 《少林足球》)都有“《少林足球》”和“周星馳”;

(阿爾弗雷德.阿德勒, 出生地, 奧地利)與(阿爾弗雷德.阿德勒, 出生地, 維也納)都有“阿爾弗雷德.阿德勒”..

前面我們所提的聯(lián)合解碼模型由于其標(biāo)簽設(shè)計或CRF層限定了每個token只能有一個tag,所以無法適用于實(shí)體關(guān)系重疊情況。此外,基于參數(shù)共享的關(guān)系抽取方法最后通常是一個多分類層,也就是一對實(shí)體只能有一個標(biāo)簽。簡單地將其改成多標(biāo)簽分類就能一定程度上解決實(shí)體關(guān)系重疊問題,但是這種改進(jìn)并不具備什么創(chuàng)新性。

那接下來我們就來看看CasRel是如何另辟蹊徑來解決實(shí)體關(guān)系重疊問題的。

4. CasRel核心思想

CasRel本質(zhì)上也是基于參數(shù)共享的聯(lián)合實(shí)體關(guān)系抽取方法,它通常被大家稱作層疊指針網(wǎng)絡(luò)。實(shí)際上,CasRel的核心思想或者說作者改進(jìn)現(xiàn)有模型的重點(diǎn)在于子層的設(shè)計。

6b5f69a0-08bb-11ed-ba43-dac502259ad0.png

因?yàn)镃asRel對于關(guān)系抽取這個任務(wù)的拆分不同,所以子任務(wù)及子任務(wù)求解順序也不同。具體地:首先CasRel 會識別所有可能的主語(頭實(shí)體);然后在給定類別關(guān)系 下,再去識別與主語相關(guān)的賓語(尾實(shí)體)。

更形式化的表達(dá):如果說以前關(guān)系抽取/關(guān)系分類是這樣一個映射函數(shù) ,;那么現(xiàn)在在CasRel中關(guān)系抽取對應(yīng)的映射函數(shù)則是 。

與之相似的思想很早之前就有出現(xiàn)在知識圖譜表示學(xué)習(xí)方法當(dāng)中,比如在下圖的 TransE[2]模型中就有 (這里 為頭實(shí)體, 為尾實(shí)體)。

6b714a30-08bb-11ed-ba43-dac502259ad0.png

5. 模型細(xì)節(jié)

6b99901c-08bb-11ed-ba43-dac502259ad0.png

現(xiàn)在我們再來看CasRel的模型細(xì)節(jié)。CasRel是一個基于聯(lián)合解碼的實(shí)體關(guān)系抽取模型,其思想和模型都很簡單,主要包括三層:

編碼端:基于BERT的編碼層用于獲取上下文語義信息對字/詞進(jìn)行表征;

解碼端:解碼端主要包括了頭實(shí)體識別層、關(guān)系與尾實(shí)體聯(lián)合識別層。

在這里,基于BERT的編碼層我們就不做過多的介紹了,感興趣的讀者可以下載論文《Pre-trained Models for Natural Language Processing》進(jìn)行閱讀學(xué)習(xí)。接下來,我們將著重介紹CasRel的解碼端。

5.1 頭實(shí)體識別層

6ba7b480-08bb-11ed-ba43-dac502259ad0.png

CasRel的頭實(shí)體識別層直接對編碼層的結(jié)果進(jìn)行解碼,去識別所有可能的頭實(shí)體。這里CasRel是識別頭實(shí)體span,也就是start和end位置,所以它采用的是二分類。這點(diǎn)和我們在實(shí)體識別BERT-MRC論文閱讀筆記、實(shí)體識別LEAR論文閱讀筆記中類似。

因此,模型本身很簡單:

首先,利用一個線性層一個sigmoid激活函數(shù)判斷每個token是不是頭實(shí)體的開始token或結(jié)束token;

然后,利用最近匹配原則將識別到的start和end配對獲得候選頭實(shí)體集合。

5.2 關(guān)系、尾實(shí)體聯(lián)合識別層

6bbdd0f8-08bb-11ed-ba43-dac502259ad0.png

識別頭實(shí)體后就要進(jìn)行關(guān)系和尾實(shí)體的聯(lián)合識別了。這里,CasRel是通過一組關(guān)系相關(guān)的尾實(shí)體識別層來實(shí)現(xiàn)的。每一層尾實(shí)體識別層的結(jié)構(gòu)其實(shí)與頭實(shí)體識別層是一樣的,不同主要在于輸入:

頭實(shí)體識別層的輸入直接就是編碼層的輸出;

而尾實(shí)體識別層的輸入還考慮了頭實(shí)體的特征:

這里 是第 個候選頭實(shí)體所包含的所有token的向量的平均。

5.3 概率解釋

最后,我們從概率角度來看CasRel模型。

既然實(shí)體關(guān)系抽取任務(wù)就是識別文本中潛在的實(shí)體關(guān)系三元組,那么模型的優(yōu)化目標(biāo)可以直接建立在三元組這個層面上。

6be6a924-08bb-11ed-ba43-dac502259ad0.png

(1) 優(yōu)化目標(biāo)

假設(shè) 為訓(xùn)練集, 是第 個輸入樣本, 是文本 中含有的所有三元組,CasRel的訓(xùn)練目標(biāo)自然是如下似然函數(shù)值最大:

(2) 概率公式變換

根據(jù)聯(lián)合概率=邊緣概率*條件概率,我們有:

這里 表示出現(xiàn)在 中的一個頭實(shí)體, 表示出現(xiàn)在 中且其頭實(shí)體為 的一組關(guān)系-尾實(shí)體對。 為先驗(yàn)概率, 為條件概率。

(3) 關(guān)系作為先驗(yàn)知識

然后,把關(guān)系作為先驗(yàn)知識,我們可以進(jìn)一步把上式右端第二項拆成兩部分,即出現(xiàn)在 中且頭實(shí)體為 的關(guān)系、其他關(guān)系:

這里, 是所有關(guān)系的集合, 表示出現(xiàn)在 中且頭實(shí)體為 的一組關(guān)系, 是 與 的差集,也就是沒有出現(xiàn)在 中的其他關(guān)系。

表示對于文本 與頭實(shí)體 以及沒有出現(xiàn)在 中的關(guān)系 來說,尾實(shí)體識別結(jié)果應(yīng)當(dāng)為空。所以最終我們有:

(4) 結(jié)論

可以發(fā)現(xiàn)最終這個式子與CasRel抽取實(shí)體關(guān)系三元組的子任務(wù)順序一致:

首先識別文本中所有可能的頭實(shí)體;

然后在每個關(guān)系類別下,去抽取與識別到的頭實(shí)體存在該關(guān)系的所有可能的尾實(shí)體。

另一方面,這個任務(wù)拆解方式也很自然解決了重疊實(shí)體關(guān)系三元組的提取問題。

5.4 實(shí)驗(yàn)

實(shí)驗(yàn)主要在兩個公開的數(shù)據(jù)集NYT和WebNLG上進(jìn)行。此外,需要注意的是CasRel模型本身還有兩個變體:

:表示編碼端的BERT參數(shù)是隨機(jī)初始化的;

:表示編碼端使用的是LSTM而不是BERT。

當(dāng)然CasRel則表示采用預(yù)訓(xùn)練好的BERT作為編碼端。

(1) 整體實(shí)驗(yàn)效果對比

6bf5f01e-08bb-11ed-ba43-dac502259ad0.png

上圖中展示了CasRel及其變體模型與其他基準(zhǔn)方法在兩個數(shù)據(jù)集上的效果。可以看到CasRel及其變體的效果都高于其他方法;尤其在WebNLG數(shù)據(jù)上,相對提升得更多。仔細(xì)看NYT、WebNLG兩個數(shù)據(jù)分布差異還是蠻大的:

NYT、WebNLG兩個數(shù)據(jù)中都有Normal類型的三元組、SEO類型的三元組、EPO類型的三元組,且三者在兩個數(shù)據(jù)集中占比不同;

Normal、SEO、EPO分別代表常規(guī)實(shí)體關(guān)系三元組、單個實(shí)體重疊的實(shí)體關(guān)系三元組、實(shí)體對重疊的實(shí)體關(guān)系三元組;

NYT中的實(shí)體關(guān)系三元組類型多為Normal類型,即數(shù)據(jù)中常規(guī)實(shí)體關(guān)系三元組居多。

WebNLG中的實(shí)體關(guān)系三元組多為SEO類型,即單個實(shí)體重疊的實(shí)體關(guān)系三元組居多。

CasRel在兩個數(shù)據(jù)集上相對穩(wěn)定的表現(xiàn)說明了在實(shí)體關(guān)系重疊這種復(fù)雜場景下,其框架的有效性。

(2) 不同三元組重疊類型實(shí)驗(yàn)對比

6c107ec0-08bb-11ed-ba43-dac502259ad0.png

上圖展示了在不同三元組重疊類型的樣本上各個基準(zhǔn)方法與CasRel的實(shí)驗(yàn)結(jié)果。可以發(fā)現(xiàn)隨著場景逐漸復(fù)雜(Normal->EPO、SEO),基準(zhǔn)方法的效果都逐漸下降,但CasRel則取得了相對穩(wěn)定且優(yōu)異的表現(xiàn)。這個對比實(shí)驗(yàn)進(jìn)一步說明了CasRel在重疊三元組場景下的有效性。

(3) 不同三元組個數(shù)實(shí)驗(yàn)對比

6c2e07c4-08bb-11ed-ba43-dac502259ad0.png

隨著樣本中三元組個數(shù)的增多,每個方法的效果都或多多少地受到了影響。尤其在 即多于五個三元組的樣本上,基準(zhǔn)方法效果基本都大幅度下降,而CasRel相對要好一些。同時,在 的樣本上CasRel的效果相對于基準(zhǔn)方法提升的最多。

這個對比實(shí)驗(yàn)反映了CasRel相比其他基準(zhǔn)方法在處理多實(shí)體關(guān)系三元組下的能力更強(qiáng)。

6. 延伸思考

CasRel的思想可以很自然地遷移到上去信息抽取中的另一大任務(wù)事件抽取上,因?yàn)樵谑录槿⊥瑯哟嬖谝恍╊愃频奶魬?zhàn):

輸入文本里面存在多個事件;

事件論元可能重疊,同一個論元可能扮演不同的角色、同一個角色下也可能有多個論元:同一個事件論元可能重疊;不同事件之間論元可能重疊。

6.1 事件抽取任務(wù)描述

事件抽取任務(wù)可拆為兩個子任務(wù):

事件檢測(event detection):即觸發(fā)詞的抽取和事件類型判斷;

事件論元識別(argument extraction):即識別事件論元并判斷論元所扮演的角色。

6.2 CasRel范式遷移到事件抽取

阿墨最初看到CasRel時就想到它的層疊指針范式可以遷移到事件抽取中:

建模思路和子任務(wù)順序:CasRel建模思路(TransE 中也是類似的)是“頭實(shí)體+關(guān)系=尾實(shí)體”,即CasRel先抽頭實(shí)體,再抽關(guān)系和尾實(shí)體;遷移到事件抽取中,可以是“觸發(fā)詞+角色=論元”即先抽觸發(fā)詞,再抽角色和論元。

模型適配:CasRel 模型中的頭實(shí)體識別子結(jié)構(gòu)適配到事件抽取中觸發(fā)詞檢測,CasRel模型中的關(guān)系尾實(shí)體識別子結(jié)構(gòu)適配到事件論元識別。這樣就完成了事件檢測任務(wù)中的觸發(fā)詞抽取、事件論元識別任務(wù),那么事件類型判定呢?

事件類型判定:事件類型判定既可在觸發(fā)詞檢測完后做,即僅對觸發(fā)詞分類,也可以在最后結(jié)合觸發(fā)詞/論元/角色信息進(jìn)行事件分類。

小改動完成完全適配:如果考慮“原文+事件類型=觸發(fā)詞”,那么實(shí)際上事件類型判定和觸發(fā)詞抽取可一并完成。只需要把用于抽取觸發(fā)詞子結(jié)構(gòu)換成和用于事件論元識別子結(jié)構(gòu)類似或者說一致即可。

實(shí)際上,在2020年阿墨進(jìn)行事件抽取相關(guān)實(shí)驗(yàn)過程中,陸陸續(xù)續(xù)就有這個系列的工作出來如:JMCEE[3]、PLMEE[4] 及CasEE[5]。CasEE代碼也開源了,阿墨去年也在上面進(jìn)行了一些實(shí)驗(yàn)。文末附上了相關(guān)論文鏈接,感興趣的讀者可下載閱讀。

總結(jié)

今天我們分享了實(shí)體關(guān)系抽取模型CasRel,并在最后聯(lián)系事件抽取做了一些延伸思考。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3178

    瀏覽量

    48731
  • 知識圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    7696

原文標(biāo)題:一文詳解關(guān)系抽取模型 CasRel

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    Llama 3 與開源AI模型關(guān)系

    在人工智能(AI)的快速發(fā)展中,開源AI模型扮演著越來越重要的角色。它們不僅推動了技術(shù)的創(chuàng)新,還促進(jìn)了全球開發(fā)者社區(qū)的合作。Llama 3,作為一個新興的AI項目,與開源AI模型關(guān)系密切,這種
    的頭像 發(fā)表于 10-27 14:42 ?324次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法,通過多層神經(jīng)網(wǎng)
    的頭像 發(fā)表于 10-23 15:25 ?388次閱讀

    求助,AD7190關(guān)于Σ-Δ ADC其中的抽取濾波器的數(shù)據(jù)轉(zhuǎn)換問題求解

    AD7190可以通過模式寄存器的FS[0:9]設(shè)置輸出速率, 0-1023的范圍;此時設(shè)置的數(shù)據(jù)速率選擇位是否就是Σ-Δ ADC抽取濾波器的抽取比? 關(guān)于抽取濾波器,此時我設(shè)置的為1023,那我是否
    發(fā)表于 09-09 06:11

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識學(xué)習(xí)

    的信息,提供更全面的上下文理解。這使得模型能夠更準(zhǔn)確地理解復(fù)雜問題中的多個層面和隱含意義。 2. 語義分析 模型通過訓(xùn)練學(xué)習(xí)到語言的語義特征,能夠識別文本中的命名實(shí)體、句法結(jié)構(gòu)和語義關(guān)系
    發(fā)表于 08-02 11:03

    ai大模型和ai框架的關(guān)系是什么

    AI大模型和AI框架是人工智能領(lǐng)域中兩個重要的概念,它們之間的關(guān)系密切且復(fù)雜。 AI大模型的定義和特點(diǎn) AI大模型是指具有大量參數(shù)的深度學(xué)習(xí)模型
    的頭像 發(fā)表于 07-16 10:07 ?4w次閱讀

    AI大模型與AI框架的關(guān)系

    在探討AI大模型與AI框架的關(guān)系時,我們首先需要明確兩者的基本概念及其在人工智能領(lǐng)域中的角色。AI大模型通常指的是具有極大規(guī)模、高度復(fù)雜性和強(qiáng)大能力的人工智能系統(tǒng),它們能夠處理復(fù)雜的任務(wù)和數(shù)據(jù),并在
    的頭像 發(fā)表于 07-15 11:42 ?947次閱讀

    知識圖譜與大模型之間的關(guān)系

    在人工智能的廣闊領(lǐng)域中,知識圖譜與大模型是兩個至關(guān)重要的概念,它們各自擁有獨(dú)特的優(yōu)勢和應(yīng)用場景,同時又相互補(bǔ)充,共同推動著人工智能技術(shù)的發(fā)展。本文將從定義、特點(diǎn)、應(yīng)用及相互關(guān)系等方面深入探討知識圖譜與大模型之間的
    的頭像 發(fā)表于 07-10 11:39 ?923次閱讀

    人工智能與大模型關(guān)系與區(qū)別

    在科技日新月異的今天,人工智能(AI)已成為推動社會進(jìn)步的重要力量。而在人工智能的眾多分支中,大模型(Large Models)作為近年來興起的概念,以其巨大的參數(shù)數(shù)量和強(qiáng)大的計算能力,在多個領(lǐng)域展現(xiàn)出了非凡的潛力。本文旨在深入探討人工智能與大模型之間的
    的頭像 發(fā)表于 07-04 16:07 ?3414次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的應(yīng)用

    ,它通過抽象思考和邏輯推理,協(xié)助我們應(yīng)對復(fù)雜的決策。 相應(yīng)地,我們設(shè)計了兩類任務(wù)來檢驗(yàn)大語言模型的能力。一類是感性的、無需理性能力的任務(wù),類似于人類的系統(tǒng)1,如情感分析和抽取式問答等。大語言模型在這
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實(shí)踐】大語言模型的評測

    推理和演繹推理。在常識推理中,我們評估模型在解決基于常識的問題時的邏輯連貫性和準(zhǔn)確性,例如通過生日前一天推斷出生日。在數(shù)學(xué)推理中,我們檢驗(yàn)模型在解決數(shù)學(xué)問題時的邏輯推理能力,如通過家庭成員的年齡關(guān)系
    發(fā)表于 05-07 17:12

    蘋果ReALM模型實(shí)體識別測試中超越OpenAI GPT-4.0

    “我們的模型在識別各種類型實(shí)體方面都有顯著提升,即使是小尺寸模型,在屏幕實(shí)體識別準(zhǔn)確性上也已超過原有的系統(tǒng)5%以上。在與GPT-3.5和GPT-4.0的比較中,小型
    的頭像 發(fā)表于 04-02 11:23 ?426次閱讀

    美提議云計算公司確認(rèn)外國實(shí)體能否訪問AI模型訓(xùn)練

      據(jù)消息,美國商務(wù)部長吉娜·雷蒙多近日宣布,拜登政府計劃要求云服務(wù)供應(yīng)商明確告知是否存在來自境外實(shí)體訪問以訓(xùn)練人工智能模型的情況。雷蒙多于訪談中強(qiáng)調(diào):“我方無法容忍非國家實(shí)體、包括中國,以及
    的頭像 發(fā)表于 01-29 09:33 ?409次閱讀

    osi參考模型與TCP/IP參考模型的對應(yīng)關(guān)系

    OSI參考模型是一種將計算機(jī)網(wǎng)絡(luò)協(xié)議分解成七個不同層次的概念模型。這七個層次分別是物理層、數(shù)據(jù)鏈路層、網(wǎng)絡(luò)層、傳輸層、會話層、表示層和應(yīng)用層。每一層都負(fù)責(zé)不同的任務(wù)和功能,通過這種分層的方式,可以
    的頭像 發(fā)表于 01-11 14:26 ?5735次閱讀

    華為公布數(shù)據(jù)傳輸專利及通信裝置

    此項專利的主要內(nèi)容包括:首先,數(shù)據(jù)實(shí)體接收到來自模型實(shí)體的對應(yīng)關(guān)系信息,這些信息確定了推理模型與數(shù)據(jù)描述間的關(guān)聯(lián)性;其后,數(shù)據(jù)
    的頭像 發(fā)表于 12-25 14:16 ?453次閱讀
    華為公布數(shù)據(jù)傳輸專利及通信裝置

    AD630的Pspice仿真模型只有16pin,與實(shí)物的20pin的對應(yīng)關(guān)系是什么?

    AD630的Pspice仿真模型只有16pin,與實(shí)物的20pin的對應(yīng)關(guān)系是什么?
    發(fā)表于 12-14 06:22