我們生活在一個網絡時代。從Facebook的社交圖到身體中蛋白質的相互作用,越來越多的世界被表現為網絡中的連接。
例如斯坦福大學的拉里佩奇和謝爾蓋布林首次建立網絡網絡,稱為“PageRank”,這是Google的基礎。
人工智能領域的一些重要人物一直在研究如何使機器學習技術更加智能地理解網絡。
近日,來自微軟、谷歌的谷歌大腦部門,斯坦福大學、劍橋大學和蒙特利爾學習算法研究所人工智能領域的一些報告稱其在使神經網絡破譯Reddit等社交網絡的隱藏結構方面取得了突破性進展。
題為“ Deep Graph Infomax ”的論文由劍橋大學的主要作者,蒙特利爾學習算法研究所的Yoshua Bengio和William Hamilton,微軟的研究人員,谷歌的Google Brain部門和斯坦福大學撰寫。他們提出了一種破解網絡中看不見部分的新方法。
他們的發明,Deep Graph Infomax,分發有關整個社交網絡Reddit的全球信息,雖然不完整,但要弄清楚Reddit中較小的“本地”社區的細節,這是一種從大型圖片向小型線索反向工作的方式。
網絡可以是通過連接的任何事物,通過Reddit、Reddit成員的個人帖子含有轉到其他帖子的鏈接,帖子之間的連接網絡為每個帖子提供了上下文和含義,從而實現通過神經網絡來預測Reddit網絡的“社區結構”。
但是存在擴展問題。在像Reddit這樣擁有數百萬個帖子的大型網絡中,不可能從一開始就收集所有帖子及其連接。這是Page和布林在90年代末建立Google時首先遇到的問題:PageRank必須映射所有網絡,而無法“看到”未知的網絡部分。
該解決方案涉及結合神經網絡中的多個突破的阻力。
作者改編了微軟的R.Devon Hjelm的早期作品“Deep Infomax”。Hjelm的Deep Infomax試圖改善圖像識別,而不是對網絡的理解。通過在圖像的片段和這些圖像的高級“表示”之間共享信息,稱為“互信息”的過程,Deep Infomax能夠比其他圖像識別手段更好地執行。
作者采用Deep Infomax方法并將其從圖像轉換為網絡表示。他們訓練了一個卷積神經網絡(CNN)來協調有關網絡拓撲的一小部分區域的已知信息以及整個網絡的已知信息。通過這樣,他們重新創建了通常由人提供的“標簽”來訓練AI模型,在相互信息的使用基本上重新創建了標簽通常提供給神經網絡的“監督”。
作者指出,Deep Graph Infomax能夠與其他程序競爭,以分析它以前從未見過的圖形,稱為歸納分析。雖然其他方法僅了解網絡的一部分的細節,但作者創建的模型中的每個“節點”都可以訪問網絡的整個圖的結構屬性。
有趣的是,通過拋棄典型的網絡分析方法(稱為“隨機漫步”),作者寫道他們的方法比其他分析更復雜。
“已知隨機游走物鏡以結構信息為代價過度強調接近度信息。” 從這個意義上說,隨機游走有一種偏見,這是人工智能科學家想要消除的。
相比之下,Deep Graph Infomax使網絡中的每個節點都“注意到圖形的全局結構特性”。
報告有一個更大的要點:神經網絡可以將有關細節的信息與有關更大圖片的信息進行匹配,可以實現更好的“表示”。表示意味著對主題具有更高級別的抽象。因此,這項工作有助于不斷追求讓AI更高層次的理解,而不僅僅是它所關注的相關性。
-
微軟
+關注
關注
4文章
6566瀏覽量
103956 -
谷歌
+關注
關注
27文章
6142瀏覽量
105100 -
人工智能
+關注
關注
1791文章
46859瀏覽量
237567
原文標題:谷歌大腦、微軟探討了人工智能網絡的神秘面紗
文章出處:【微信號:iotmag,微信公眾號:iotmag】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論