精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

我們究竟能不能相信人工智能?

電子工程師 ? 來源:工程師李察 ? 2019-05-11 10:28 ? 次閱讀

眾所周知,計算機很多時候可以給我們的問題一個很好的答案,但我們并不理解它是如何得到這些答案的。Been Kim一直在開發一個“面向人類的翻譯器(translator for humans)”,這樣我們就可以知道人工智能何時會失效。

Been Kim

如果一個醫生告訴你需要做手術,你會想知道為什么,而且你會期望自己可以理解這個解釋,即使你從未上過醫學院。谷歌大腦(Google Brain)的科學家Kim認為,我們應該對人工智能抱有更高的期望。作為“可解釋”機器學習(“interpretable” machine learning)的專家,她希望開發能夠向任何人解釋自己的人工智能軟件。

自從大約十年前人工智能興起以來,人工智能背后的神經網絡技術使用其日益強大的學習和識別數據模式的能力,已經改變了從電子郵件到藥物開發的每一件事。但這種能力帶來了一個問題:現代深度學習網絡的復雜性使之能夠成功地學會如何駕駛汽車和發現保險欺詐,但即便是人工智能專家也無法了解它內部工作的機制。如果一個神經網絡被訓練來識別像肝癌和精神分裂癥這樣的病人——就像2015年紐約西奈山醫院的“深度病人(Deep Patient)”系統一樣——我們不知道神經網絡關注的是數據的哪些特征。這種“知識”被加諸于許多層的人工神經元上,每層都有成百上千的連接。

隨著越來越多的行業試圖用人工智能實現自動化或增強他們的決策能力,這種黑箱理論似乎顯示出根本性的缺陷。美國國防部高級研究計劃局(DARPA)的“XAI”項目(用于“可解釋的人工智能”)正在積極研究這個問題,可解釋性已經從機器學習研究的邊緣轉移到了它的中心。Kim說:“人工智能正處于這個關鍵時刻,人類正試圖考察這項技術是否對我們有益。”“如果我們不解決這一可解釋性問題,我認為我們就不應該繼續使用這項技術。我們可能會放棄它。”

Kim和她在Google Brain的同事最近開發了一個名為“概念激活向量測試(TCAV)”的系統,她將其描述為“面向人類的翻譯器”,該系統允許用戶詢問黑匣子人工智能一個特定的高層次概念在其推理中發揮了多大作用。例如,如果一個機器學習系統已經被訓練識別圖像中的斑馬,那么一個人可以使用TCAV來確定系統在做出決定時對“條紋”概念給予了多少權重。

可解釋性是什么意思,它為什么如此重要,Kim一一給出了解答。

“可解釋性”這個詞到底是什么意思?

可解釋性有兩個分支。一種是科學的可解釋性:如果你把神經網絡作為研究對象,那么你就可以進行科學實驗來真正理解關于模型的細節、它的反應以及諸如此類的事情。

可解釋性還有第二個分支,我主要關注的是人工智能的可解釋性。你不必了解模型的每一個細節。但是,只要你能夠理解并足夠安全地使用該工具就可以了,這就是我們的目標。

你為什么能對一個你不完全理解其工作原理的系統有信心呢?

我給你打個比方。假設我后院有一棵樹,我想砍掉它。我可能會用電鋸來做這項工作。現在,我不完全理解電鋸是如何工作的。但手冊上說,“這些是你需要小心的事情,以免割到你的手指。”所以,根據這本手冊,我寧愿用電鋸也不愿用手鋸,手鋸的原理容易理解,但會讓我花五個小時來砍樹。

你知道“切割”是什么,即使你不完全知道完成這個動作的機制是什么。

對。第二個可解釋性的第二個分支是:我們能充分理解一個工具,以便安全地使用它嗎?我們可以通過確認工具中反映出的人類已有的知識來形成這種理解。

“反映人類知識”如何使人工智能更容易理解?

這有另一個例子。如果醫生使用機器學習模型來進行癌癥診斷,醫生會想知道,該模型有沒有利用數據中我們不想涉及的隨機性。確保這一點的一種方法是確認機器學習模型正在做醫生會做的事情。換句話說,證明醫生自己的診斷知識已經反映在模型中。

因此,如果醫生在判斷一個細胞是否變成了癌細胞,他們可能會在標本中尋找一種叫做“融合腺(fused glands)”的東西。他們還可以考慮患者的年齡,以及患者過去是否接受過化療。這些都是醫生診斷癌癥時關心的因素。如果我們能證明機器學習模型也注意到了這些因素,那么模型就更容易理解了,因為它反映了醫生作為人類會具備的知識。

這就是TCAV所做的嗎?它揭示了機器學習模型使用哪些高級概念來做出決策?

對。在此之前,可解釋性方法只解釋了在輸入數據的特征上,神經網絡做了什么工作。也就是說,如果您有圖像,每個像素都是一個輸入參數。事實上,Yann Lecun(一位早期的深度學習先驅,目前是Facebook的人工智能研究主管)說,你可以查看神經網絡中的每個節點,并查看每個輸入的數值。這對電腦來說沒問題,但人類不會這樣做。我不會告訴你,“哦,看看100到200像素,RGB值是0.2和0.3。”我只會說,“有一張狗的照片,它的毛發真的很蓬松。”這就是人類交流的方式——利用概念。

TCAV如何把輸入的數據轉化成概念?

讓我們回到使用機器學習模型的醫生的那個例子,這個機器學習模型已經被訓練為將細胞樣本的圖像按照可能存在的癌癥分類。作為醫生,你可能想知道“融合腺體”的概念對預測癌癥有多重要。首先,你收集一些圖像,比如20個,其中有一些含有融合腺體的細胞。現在你將這些標記的示例插入模型中。

那么TCAV內部所做的就是所謂的“敏感性測試”,當我們將這些包含融合腺體的圖片放入模型,癌癥陽性預測的概率會增加多少?你可以將其輸出為一個介于0和1之間的數字,這是你的TCAV得分。如果概率增加,證明這是模型的一個重要概念。如果沒有,這就不是一個重要的概念。

“概念”是一個模糊的術語。有沒有TCAV不能處理的概念?

如果你不能使用數據表達你的概念,那么它將無法工作。如果你的機器學習模型是在圖像上訓練的,那么這個概念必須是可視化的。比如說,我想用視覺表達“愛”的概念,這真的很難。

TCAV本質上是為了建立對人工智能的信任,而不是真正的理解它嗎?

不是,我們從認知科學和心理學的研究中知道,人類很容易上當受騙。這意味著欺騙一個人去相信某件事其實很容易。機器學習可解釋性的目標與此相反。它告訴你一個系統是否安全,重要的是找到真相而不是建立信任。可解釋性的重點是揭示人工智能推理中的潛在缺陷。

它怎么能暴露自己的缺陷?

你可以使用TCAV向經過訓練的模型測試相關的概念。回到醫生使用人工智能進行癌癥預測的例子,醫生們可能會突然想,“這臺機器似乎傾向于對帶有藍色陰影的圖像給出患有癌癥的預測。我們認為不應該考慮這一因素。”因此,如果帶有“藍色”的TCAV分數很高,這就成為這個機器學習模型的一個缺陷。

TCAV是針對無法解釋的機器學習模型設計的。為什么不讓系統從一開始就可以解釋呢?

可解釋性研究的一個分支,側重于建立反映人類推理方式的固有可解釋模型。但我的看法是:現在你在任何地方都有人工智能模型,這些模型已經被構建,并且已經得到重要應用,而從一開始我們就沒有考慮過可解釋性。這就是事實。谷歌就有很多這樣的情況!你可以說,“可解釋性是非常有用的,讓我為你建立另一個模型來取代你已有的模型。”那好吧,祝你好運。

那你怎么辦?

我們仍然需要判斷這項技術是否適合我們。這就是我為什么研究“后訓練(Posttraining)”的可解釋性方法。如果你有一個別人給你的模型,而你不能改變它,你如何去為它的行為生成解釋,以便你可以安全地使用它?這就是TCAV工作的意義所在。

你相信如果沒有可解釋性,人類可能會放棄人工智能技術嗎?考慮到它的強大功能,你真的認為這是現實的可能性嗎?

是的。專家系統(智能計算機程序系統)就是這樣。在20世紀80年代,我們確定他們比人工操作人員執行某些任務更便宜。但現在誰在使用專家系統呢?沒有人。之后我們進入了人工智能的冬天。

因為人工智能鋪天蓋地的宣傳和資金的大量投入,現在看起來不太可能放棄人工智能。但從長遠來看,我認為人類可能發現——也許是出于恐懼,也許是因為缺乏證據——這項技術不適合我們。這也是可能的。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 計算機
    +關注

    關注

    19

    文章

    7430

    瀏覽量

    87733
  • 人工智能
    +關注

    關注

    1791

    文章

    46896

    瀏覽量

    237670
  • 模糊
    +關注

    關注

    0

    文章

    63

    瀏覽量

    14357

原文標題:我們能不能相信人工智能?

文章出處:【微信號:bdtdsj,微信公眾號:中科院半導體所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    嵌入式和人工智能究竟是什么關系?

    嵌入式和人工智能究竟是什么關系? 嵌入式系統是一種特殊的系統,它通常被嵌入到其他設備或機器中,以實現特定功能。嵌入式系統具有非常強的適應性和靈活性,能夠根據用戶需求進行定制化設計。它廣泛應用于各種
    發表于 11-14 16:39

    谷景科普封裝一樣的磁棒電感究竟能不能通用

    谷景告訴你封裝一樣的磁棒電感究竟能不能通用編輯:谷景電子磁棒電感的選型的時候,我們通常會先關注它的封裝尺寸,因為這是確保電感能夠適配電路板的關鍵因素。但是,有些人可能會誤以為只要封裝尺寸相同,任何
    發表于 11-13 22:36 ?0次下載

    一體成型電感外殼破損還能不能

    電子發燒友網站提供《一體成型電感外殼破損還能不能用.docx》資料免費下載
    發表于 10-31 10:57 ?0次下載

    《AI for Science:人工智能驅動科學創新》第6章人AI與能源科學讀后感

    和國際合作等多個層面。這些內容讓我更加認識到,在推動人工智能與能源科學融合的過程中,需要不斷探索和創新,以應對各種挑戰和機遇。 最后,通過閱讀這一章,我深刻感受到人工智能對于能源科學的重要性。人工智能不
    發表于 10-14 09:27

    AI for Science:人工智能驅動科學創新》第4章-AI與生命科學讀后感

    很幸運社區給我一個閱讀此書的機會,感謝平臺。 《AI for Science:人工智能驅動科學創新》第4章關于AI與生命科學的部分,為我們揭示了人工智能技術在生命科學領域中的廣泛應用和深遠影響。在
    發表于 10-14 09:21

    《AI for Science:人工智能驅動科學創新》第一章人工智能驅動的科學創新學習心得

    深刻認識到人工智能在推動科學進步中的核心價值。它不僅是科技進步的加速器,更是人類智慧拓展的催化劑,引領我們邁向一個更加智慧、高效、可持續的科學研究新時代。
    發表于 10-14 09:12

    risc-v在人工智能圖像處理應用前景分析

    RISC-V在人工智能圖像處理領域的應用前景十分廣闊,這主要得益于其開源性、靈活性和低功耗等特點。以下是對RISC-V在人工智能圖像處理應用前景的詳細分析: 一、RISC-V的基本特點 RISC-V
    發表于 09-28 11:00

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅動科學創新

    ! 《AI for Science:人工智能驅動科學創新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學家做了什么? 人工智能
    發表于 09-09 13:54

    UTB定位技術能不能精準定位

    在當今科技日新月異的時代,定位技術以其廣泛的應用場景和不斷提升的精度,成為了多個領域的核心支撐。其中,UTB定位技術以其高精度、低延遲和高抗干擾性等特點,在眾多定位技術中脫穎而出,成為精準定位領域的佼佼者。那么,UTB定位技術到底能不能精準定位呢?下面就給大家具體介紹一下關于UTB定位技術。
    的頭像 發表于 09-03 10:07 ?282次閱讀

    光纖彎曲究竟能不能影響光纖傳輸呢?

    光纖的傳輸性能受到多種因素的影響,其中彎曲是一個重要的因素。當光纖受到過度彎曲時,會導致光信號的傳輸受到干擾,從而影響光纖的傳輸性能。
    的頭像 發表于 03-16 14:48 ?1671次閱讀

    嵌入式人工智能的就業方向有哪些?

    嵌入式人工智能的就業方向有哪些? 在新一輪科技革命與產業變革的時代背景下,嵌入式人工智能成為國家新型基礎建設與傳統產業升級的核心驅動力。同時在此背景驅動下,眾多名企也紛紛在嵌入式人工智能領域布局
    發表于 02-26 10:17

    同VLAN不同的網段能不能互通?

    同VLAN不同的網段能不能互通? 同一個VLAN中的設備擁有相同的網絡地址范圍,因此它們可以通過該VLAN進行通信。而不同VLAN中的設備擁有不同的網絡地址范圍,它們通常不能直接互通。然而,在某些
    的頭像 發表于 02-04 11:21 ?2963次閱讀

    pcb壓合緩沖墊,究竟能不能讓你的電路板更安全?

    pcb壓合緩沖墊,究竟能不能讓你的電路板更安全?
    的頭像 發表于 12-27 10:13 ?844次閱讀

    C語言中結構體能不能相加

    C語言中,結構體能不能相加?
    的頭像 發表于 12-19 17:04 ?1221次閱讀
    C語言中結構體<b class='flag-5'>能不能</b>相加

    幾個LED并聯,能不能用恒壓電源?

    幾個LED并聯,能不能用恒壓電源? LED(Light Emitting Diode)是一種非常常見的光電元件,它具有低功耗、高亮度、長壽命等優點,因此廣泛應用于照明、顯示和指示等領域。而在實際
    的頭像 發表于 11-30 11:43 ?1115次閱讀