精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

圖神經(jīng)網(wǎng)絡背后的原理和其強大的表征能力

DPVg_AI_era ? 來源:lq ? 2019-06-02 09:22 ? 次閱讀

網(wǎng)絡領域的大牛、斯坦福大學Jure Leskovec教授在ICLR 2019就圖深度生成模型做了演講,闡述了圖生成模型的方法和應用,并詳細介紹了他的最新成果

斯坦福大學教授Jure Leskovec是圖網(wǎng)絡領域的專家,圖表示學習方法 node2vec 和 GraphSAGE 作者之一。

Jure Leskovec

在今年 ICLR,Jure Leskovec 教授及斯坦福、MIT 的多名研究者發(fā)表論文How Powerful Are Graph Neural Networks?(https://cs.stanford.edu/people/jure/pubs/gin-iclr19.pdf),詳細闡述了圖神經(jīng)網(wǎng)絡背后的原理和其強大的表征能力,認為圖神經(jīng)網(wǎng)絡在因果推理方面有巨大的潛力,有望成為 AI 的下一個拐點。

此外,在 ICLR 受邀演講上,Jure Leskovec 教授還就圖深度生成模型做了演講。在這次演講中,Jure 闡述了圖生成模型的方法和應用,并詳細介紹了他的最新成果,GraphRNN 和 Graph Convolutional Policy Network。

本文帶來該演講的 PPT。

下載鏈接 (或點擊閱讀原文下載):

http://i.stanford.edu/~jure/pub/talks2/graph_gen-iclr-may19-long.pdf

主要內(nèi)容:

為什么圖網(wǎng)絡很重要?

圖生成任務

GraphRNN:RNN 的兩個層次

圖卷積策略網(wǎng)絡:將圖表示和強化學習結合起來

為什么圖網(wǎng)絡很重要?

為什么圖網(wǎng)絡很重要?

深入了解圖的形成過程

異常檢測 - 異常行為,進化

預測 —— 根據(jù)過去預測未來

新的圖結構的模擬

圖補全 - 很多圖都是部分可觀察的

“如果” 場景

圖生成任務

任務 1:生成逼真的圖

生成與給定數(shù)據(jù)集相似的圖

任務 2:目標導向的圖生成

生成優(yōu)化給定目標 / 約束的圖

藥物分子生成 / 優(yōu)化

關鍵的見解

通過順序添加節(jié)點 / 邊來生成圖

好處:

表示具有不同大小、不同序列長度的圖

將不同的節(jié)點順序?qū)诓煌纳绍壽E

捕獲節(jié)點之間的復雜依賴關系

GraphRNN:RNN 的兩個層次

GraphRNN:RNN 的兩個層次

目標:將模型圖生成作為序列生成

需要對兩個流程建模:

為新節(jié)點生成狀態(tài) (節(jié) Node-level RNN)

根據(jù)新節(jié)點的狀態(tài)生成新節(jié)點的邊 (Edge-level RNN)

圖卷積策略網(wǎng)絡

圖卷積策略網(wǎng)絡:目標導向的圖生成 (GCPN)

將圖表示 + RL 結合起來

圖表示 (Graph representation) 捕獲復雜的結構信息,并在每個狀態(tài)轉(zhuǎn)換中啟用有效性檢查 (Valid)

強化學習 (RL) 優(yōu)化中間 / 最終獎勵 (High scores)

對抗性訓練 (Adversarial training) 模仿給定數(shù)據(jù)集中的例子 (Realistic)

總結

通過序列生成,可以成功生成復雜的圖

每一步?jīng)Q策都是基于隱藏狀態(tài)做出的

顯式:中間生成圖,用 GCN 解碼

隱式:向量表示,RNN 解碼

任務:

模仿一組給定的圖

按照既定目標優(yōu)化圖

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4762

    瀏覽量

    100541
  • AI
    AI
    +關注

    關注

    87

    文章

    30146

    瀏覽量

    268421
  • 論文
    +關注

    關注

    1

    文章

    103

    瀏覽量

    14950

原文標題:斯坦福教授ICLR演講:圖網(wǎng)絡最新進展GraphRNN和GCPN(附PPT下載)

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【PYNQ-Z2試用體驗】神經(jīng)網(wǎng)絡基礎知識

    超過閾值,輸出就一躍而起。但我們一般用S函數(shù)作為激活函數(shù)。如下圖:2 該函數(shù)相比階越函數(shù)更加接近現(xiàn)實。神經(jīng)網(wǎng)絡原理如圖所示是一個具有兩層的神經(jīng)網(wǎng)絡,每層有兩個神經(jīng)元。
    發(fā)表于 03-03 22:10

    卷積神經(jīng)網(wǎng)絡如何使用

    卷積神經(jīng)網(wǎng)絡(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡在工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡

    `BP神經(jīng)網(wǎng)絡首先給出只包含一個隱層的BP神經(jīng)網(wǎng)絡模型(兩層神經(jīng)網(wǎng)絡): BP神經(jīng)網(wǎng)絡其實由兩部分組成:前饋神經(jīng)網(wǎng)絡
    發(fā)表于 07-21 04:00

    【案例分享】ART神經(jīng)網(wǎng)絡與SOM神經(jīng)網(wǎng)絡

    今天學習了兩個神經(jīng)網(wǎng)絡,分別是自適應諧振(ART)神經(jīng)網(wǎng)絡與自組織映射(SOM)神經(jīng)網(wǎng)絡。整體感覺不是很難,只不過一些最基礎的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡是競爭學習的一個代表,
    發(fā)表于 07-21 04:30

    如何設計BP神經(jīng)網(wǎng)絡圖像壓縮算法?

    ,并能在腦海中重現(xiàn)這些圖像信息,這不僅與人腦的海量信息存儲能力有關,還與人腦的信息處理能力,包括數(shù)據(jù)壓縮能力有關。在各種神經(jīng)網(wǎng)絡中,多層前饋神經(jīng)網(wǎng)絡
    發(fā)表于 08-08 06:11

    如何構建神經(jīng)網(wǎng)絡

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預測的計算系統(tǒng)。如何構建神經(jīng)網(wǎng)絡神經(jīng)網(wǎng)絡包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權重的層,以提高模型的預測
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡的PID控制

    最近在學習電機的智能控制,上周學習了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡的PID控制。神經(jīng)網(wǎng)絡具有任意非線性表達能力,可以通過對系統(tǒng)性能的學習來實現(xiàn)具有最佳組合的PID控
    發(fā)表于 09-07 07:43

    卷積神經(jīng)網(wǎng)絡模型發(fā)展及應用

    模型(generative adversarial network,GAN),具有完全相同的兩路網(wǎng)絡 結構以及權值的孿生神經(jīng)網(wǎng)絡模型 SiameseNet,以 及通過線性運算生成其他冗余特征
    發(fā)表于 08-02 10:39

    卷積神經(jīng)網(wǎng)絡簡介:什么是機器學習?

    復雜數(shù)據(jù)中提取特征的強大工具。例如,這包括音頻信號或圖像中的復雜模式識別。本文討論了 CNN 相對于經(jīng)典線性規(guī)劃的優(yōu)勢。后續(xù)文章“訓練卷積神經(jīng)網(wǎng)絡:什么是機器學習?——第2部分”將討論如何訓練CNN
    發(fā)表于 02-23 20:11

    深入了解神經(jīng)網(wǎng)絡背后的原理和強大表征能力

    分類數(shù)據(jù)集上,通過實驗驗證我們的理論,其中 GNN 的表達能力對于捕獲結構至關重要。特別是,我們對基于各種聚合函數(shù)的 GNN 性能進行了對比。我們的結果證實了最強大的 GNN(我
    的頭像 發(fā)表于 03-01 09:09 ?1.1w次閱讀
    深入了解<b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b><b class='flag-5'>背后</b>的原理和<b class='flag-5'>其</b><b class='flag-5'>強大</b>的<b class='flag-5'>表征</b><b class='flag-5'>能力</b>

    人工神經(jīng)網(wǎng)絡分類和應用

    人工神經(jīng)網(wǎng)絡分類和應用說明。
    發(fā)表于 04-21 09:51 ?5次下載

    淺談神經(jīng)網(wǎng)絡在自然語言處理中的應用簡述

    近幾年,神經(jīng)網(wǎng)絡因其強大表征能力逐漸取代傳統(tǒng)的機器學習成為自然語言處理任務的基本模型。然而經(jīng)典的神經(jīng)網(wǎng)絡模型只能處理歐氏空間中的數(shù)據(jù),自然
    的頭像 發(fā)表于 04-26 14:57 ?3268次閱讀
    淺談<b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>在自然語言處理中的應用簡述

    什么是神經(jīng)網(wǎng)絡?什么是卷積神經(jīng)網(wǎng)絡

    在介紹卷積神經(jīng)網(wǎng)絡之前,我們先回顧一下神經(jīng)網(wǎng)絡的基本知識。就目前而言,神經(jīng)網(wǎng)絡是深度學習算法的核心,我們所熟知的很多深度學習算法的背后其實都是神經(jīng)網(wǎng)
    的頭像 發(fā)表于 02-23 09:14 ?3352次閱讀

    卷積神經(jīng)網(wǎng)絡和bp神經(jīng)網(wǎng)絡的區(qū)別

    不同的神經(jīng)網(wǎng)絡模型,它們在結構、原理、應用等方面都存在一定的差異。本文將從多個方面對這兩種神經(jīng)網(wǎng)絡進行詳細的比較和分析。 引言 神經(jīng)網(wǎng)絡是一種模擬人腦神經(jīng)元連接和信息傳遞的計算模型,它
    的頭像 發(fā)表于 07-02 14:24 ?2935次閱讀

    怎么對神經(jīng)網(wǎng)絡重新訓練

    發(fā)生變化,導致神經(jīng)網(wǎng)絡的泛化能力下降。為了保持神經(jīng)網(wǎng)絡的性能,需要對進行重新訓練。本文將詳細介紹重新訓練神經(jīng)網(wǎng)絡的步驟和方法。 數(shù)據(jù)預處理
    的頭像 發(fā)表于 07-11 10:25 ?417次閱讀