精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

讓機(jī)器學(xué)習(xí)模型不再是”黑盒子“

DPVg_AI_era ? 來(lái)源:lp ? 2019-03-12 09:31 ? 次閱讀

提高機(jī)器學(xué)習(xí)模型的可解釋性和透明度,將有助于模型的除錯(cuò)、引導(dǎo)未來(lái)的數(shù)據(jù)收集方向、為特征構(gòu)建和人類(lèi)決策提供真正可靠的信息,最終在人與模型之間建立信任。

過(guò)去幾年來(lái),人工智能研究人員在圖像識(shí)別、自然語(yǔ)言理解和棋類(lèi)等領(lǐng)域取得了重大突破。但由于缺乏對(duì)復(fù)雜機(jī)器學(xué)習(xí)模型的真正理解,導(dǎo)致模型在傳播時(shí)出現(xiàn)了偏見(jiàn),這種偏見(jiàn)在零售、面部識(shí)別和語(yǔ)言理解等領(lǐng)域的應(yīng)用中出現(xiàn)了多次。

說(shuō)到底,機(jī)器學(xué)習(xí)模型大多數(shù)時(shí)候仍然是“黑盒子”,很多時(shí)候可以拿來(lái)用,但具體原理并不十分清楚,即缺乏足夠的“可解釋性”。

什么是模型的”可解釋性“?不同人群定義不一樣

所謂模型的可解釋性,是指人類(lèi)能夠在何種程度上一致地估計(jì)、理解并遵循模型的預(yù)測(cè),以及在模型出錯(cuò)時(shí),在何種程度上能夠成功檢測(cè)到。

可解釋性對(duì)不同的人群有著不同的含義:

對(duì)于數(shù)據(jù)科學(xué)家來(lái)說(shuō),意味著更好地理解模型,掌握模型性能好壞情況以及原因。這些信息有助于數(shù)據(jù)科學(xué)家構(gòu)建性能更強(qiáng)大的模型。

對(duì)于業(yè)務(wù)利益相關(guān)者而言,模型具備可解釋性有助于深入了解為什么人工智能系統(tǒng)做出特定決定以確保公平性,維護(hù)用戶和品牌

對(duì)于用戶來(lái)說(shuō),這意味著要理解模型做出決策的原因,并在模型出錯(cuò)時(shí)允許進(jìn)行有意義的挑戰(zhàn)。

對(duì)于專(zhuān)家或監(jiān)管機(jī)構(gòu)來(lái)說(shuō),它意味著審核AI系統(tǒng)并遵循決策流程,尤其是在系統(tǒng)出現(xiàn)問(wèn)題時(shí)。

微軟的團(tuán)隊(duì)數(shù)據(jù)科學(xué)流程(TDSP),其中一個(gè)重要環(huán)節(jié)就是對(duì)模型的理解

機(jī)器學(xué)習(xí)模型的可解釋性可以展示模型正在學(xué)習(xí)什么內(nèi)容,而洞悉模型的內(nèi)部,要比大多數(shù)人預(yù)想的更加有用。

在過(guò)去的10年里,我采訪了許多數(shù)據(jù)科學(xué)家,其中模型可解釋性技術(shù)是我最喜歡的主題,在這一問(wèn)題上,甚至可以將最優(yōu)秀的數(shù)據(jù)科學(xué)家與普通科學(xué)家區(qū)分開(kāi)來(lái)。

有些人認(rèn)為機(jī)器學(xué)習(xí)模型是黑盒子,可以做出預(yù)測(cè),但卻無(wú)法理解。但最好的數(shù)據(jù)科學(xué)家知道如何從任何模型中提取出關(guān)于真實(shí)世界的見(jiàn)解。對(duì)于任何給定的模型,優(yōu)秀的數(shù)據(jù)科學(xué)家可以輕松回答類(lèi)似下面的問(wèn)題:

模型認(rèn)為哪些特征最重要?

對(duì)于來(lái)自模型的任何預(yù)測(cè)來(lái)說(shuō),數(shù)據(jù)的每個(gè)特征會(huì)對(duì)預(yù)測(cè)結(jié)果產(chǎn)生哪些影響?

不同特征之間的哪些相互作用對(duì)模型的預(yù)測(cè)結(jié)果影響最大?

回答這些問(wèn)題比許多人意識(shí)到的更為廣泛。無(wú)論你是從Kaggle學(xué)習(xí)技術(shù)還是從統(tǒng)計(jì)學(xué)習(xí)元素這樣的綜合資源中學(xué)習(xí),這些技術(shù)都將徹底改變構(gòu)建,驗(yàn)證和部署機(jī)器學(xué)習(xí)模型的方式。

提高模型可解釋性有什么用?

關(guān)于模型的可解釋性技術(shù),以下是五個(gè)最重要的應(yīng)用方式:

調(diào)試

為模型特征構(gòu)建提供信息

指導(dǎo)未來(lái)的數(shù)據(jù)收集方向

為人類(lèi)決策提供建議

在人與模型間建立信任

調(diào)試

世界上存在很多可靠性不高,雜亂無(wú)章、數(shù)量眾多的數(shù)據(jù)。在編寫(xiě)預(yù)處理代碼時(shí),這些數(shù)據(jù)可能會(huì)成為潛在的錯(cuò)誤源頭,增加目標(biāo)泄漏的可能性,在實(shí)際數(shù)據(jù)科學(xué)項(xiàng)目中的某些時(shí)候出現(xiàn)錯(cuò)誤可以說(shuō)是一種常態(tài),而不是例外。

由于錯(cuò)誤出現(xiàn)的頻率和潛在的災(zāi)難性后果,除錯(cuò)是數(shù)據(jù)科學(xué)中最有價(jià)值的技能之一。了解模型發(fā)現(xiàn)的模式將幫助你確定,模型對(duì)現(xiàn)實(shí)世界的理解與你自己的觀點(diǎn)出現(xiàn)了不一致,而這通常是查找錯(cuò)誤的第一步。

為模型的特征構(gòu)建提供信息

特征構(gòu)建通常是提高模型精度的最有效的方法。這個(gè)過(guò)程通常涉及使用原始數(shù)據(jù)或先前創(chuàng)建的特征的轉(zhuǎn)換重復(fù)創(chuàng)建新特征。

有時(shí)你可以只憑借關(guān)于底層主題的直覺(jué)來(lái)完成這個(gè)過(guò)程。但是,當(dāng)模型有100個(gè)原始特征或缺乏有關(guān)您正在處理的主題的背景知識(shí)時(shí),就需要更多指引了。這時(shí)候,如果模型仍是黑盒子,不可解釋的,完成這一過(guò)程可能會(huì)非常困難,甚至是不可能的。

未來(lái),隨著越來(lái)越多的數(shù)據(jù)集的原始特征數(shù)量達(dá)到成百上千的級(jí)別,這種方式無(wú)疑會(huì)變得越來(lái)越重要。

指導(dǎo)未來(lái)的數(shù)據(jù)收集方向

對(duì)于從網(wǎng)上下載的數(shù)據(jù)集,你并沒(méi)有控制能力。但是,許多利用數(shù)據(jù)科學(xué)的企業(yè)和組織都有機(jī)會(huì)擴(kuò)展其收集的數(shù)據(jù)類(lèi)型。收集新類(lèi)型的數(shù)據(jù)可能成本高昂,又不方便,因此只有在知道某類(lèi)數(shù)據(jù)值得收集,他們才會(huì)去這樣做。

如果模型是可解釋的,就可以很好地理解當(dāng)前特征的價(jià)值,進(jìn)而更有可能推斷出哪些新型數(shù)據(jù)是最有用的,從而指導(dǎo)未來(lái)數(shù)據(jù)的收集方向。

為人類(lèi)決策提供建議

有些決策行為是由模型自動(dòng)完成的。比如,當(dāng)你訪問(wèn)亞馬遜的網(wǎng)站時(shí),你所看到的網(wǎng)頁(yè)內(nèi)容并不是由真人匆忙決定的。不過(guò),確實(shí)許多重要的決定都是由人做出的。對(duì)于這些決策,觀點(diǎn)洞察可能比預(yù)測(cè)結(jié)果更有價(jià)值。

在人與模型間建立信任

在沒(méi)有驗(yàn)證一些基本事實(shí)的情況下,許多人認(rèn)為他們無(wú)法信任模型來(lái)進(jìn)行重要決策??紤]到數(shù)據(jù)出現(xiàn)錯(cuò)誤的幾率,這是一個(gè)明智的預(yù)防措施。

在實(shí)際應(yīng)用中,如果模型顯示的結(jié)果符合他們對(duì)問(wèn)題的一般見(jiàn)解,將有助于在人與模型間建立一種信任,即使對(duì)數(shù)據(jù)科學(xué)知之甚少的人而言也是如此。

不過(guò),在Adrian Weller的一篇有趣的論文中,提出AI透明度應(yīng)該是實(shí)現(xiàn)目標(biāo)的手段,而不是目標(biāo)本身。Weller認(rèn)為,更高的模型透明度可能產(chǎn)生對(duì)所有人不利的結(jié)果,并可能使AI被惡意者濫用。

毫無(wú)疑問(wèn),AI系統(tǒng)必須足夠安全,并且能夠防范對(duì)抗性攻擊,這樣,討論模型的可解釋性和透明度才是有積極意義的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    46896

    瀏覽量

    237670
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3178

    瀏覽量

    48731
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8382

    瀏覽量

    132444

原文標(biāo)題:告別AI模型黑盒子:可解釋性將是數(shù)據(jù)科學(xué)的下一個(gè)“超能力”

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    什么是機(jī)器學(xué)習(xí)?通過(guò)機(jī)器學(xué)習(xí)方法能解決哪些問(wèn)題?

    來(lái)源:Master編程樹(shù)“機(jī)器學(xué)習(xí)”最初的研究動(dòng)機(jī)是計(jì)算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆](méi)有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能
    的頭像 發(fā)表于 11-16 01:07 ?259次閱讀
    什么是<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>?通過(guò)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問(wèn)題?

    麻省理工學(xué)院推出新型機(jī)器人訓(xùn)練模型

    近日,據(jù)TechCrunch報(bào)道,麻省理工學(xué)院的研究團(tuán)隊(duì)展示了一種創(chuàng)新的機(jī)器人訓(xùn)練模型,該模型突破了傳統(tǒng)模仿學(xué)習(xí)方法的局限,不再依賴標(biāo)準(zhǔn)數(shù)據(jù)
    的頭像 發(fā)表于 11-04 14:56 ?417次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?388次閱讀

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個(gè)方面存在顯著的區(qū)別。以下是對(duì)這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬(wàn)億的參
    的頭像 發(fā)表于 10-23 15:01 ?392次閱讀

    構(gòu)建語(yǔ)音控制機(jī)器人 - 線性模型機(jī)器學(xué)習(xí)

    2024-07-31 |Annabel Ng 在該項(xiàng)目的[上一篇博客文章]中,我介紹了運(yùn)行機(jī)器人電機(jī)、處理音頻信號(hào)和調(diào)節(jié)電壓所需的電路的基礎(chǔ)知識(shí)。然而,機(jī)器人還沒(méi)有完全完成!盡管機(jī)器人可以正確移動(dòng)
    的頭像 發(fā)表于 10-02 16:31 ?180次閱讀
    構(gòu)建語(yǔ)音控制<b class='flag-5'>機(jī)器</b>人 - 線性<b class='flag-5'>模型</b>和<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡(jiǎn)單建議

    這本書(shū)以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時(shí)間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時(shí)間序列分析的基礎(chǔ)知識(shí),更巧妙地展示了機(jī)器學(xué)習(xí)如何在這一領(lǐng)域發(fā)揮巨
    發(fā)表于 08-12 11:21

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    今天來(lái)學(xué)習(xí)大語(yǔ)言模型在自然語(yǔ)言理解方面的原理以及問(wèn)答回復(fù)實(shí)現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語(yǔ)言處理技術(shù)。 大語(yǔ)言模型涉及以下幾個(gè)過(guò)程: 數(shù)據(jù)收集:大語(yǔ)言
    發(fā)表于 08-02 11:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 俯瞰全書(shū)

    上周收到《大語(yǔ)言模型應(yīng)用指南》一書(shū),非常高興,但工作項(xiàng)目繁忙,今天才品鑒體驗(yàn),感謝作者編寫(xiě)了一部?jī)?nèi)容豐富、理論應(yīng)用相結(jié)合、印刷精美的著作,也感謝電子發(fā)燒友論壇提供了一個(gè)我了解大語(yǔ)言模型機(jī)器
    發(fā)表于 07-21 13:35

    pycharm如何訓(xùn)練機(jī)器學(xué)習(xí)模型

    PyCharm是一個(gè)流行的Python集成開(kāi)發(fā)環(huán)境(IDE),它提供了豐富的功能,包括代碼編輯、調(diào)試、測(cè)試等。在本文中,我們將介紹如何在PyCharm中訓(xùn)練機(jī)器學(xué)習(xí)模型。 一、安裝PyCharm
    的頭像 發(fā)表于 07-11 10:14 ?699次閱讀

    Al大模型機(jī)器

    豐富的知識(shí)儲(chǔ)備。它們可以涵蓋各種領(lǐng)域的知識(shí),并能夠回答相關(guān)問(wèn)題。靈活性與通用性: AI大模型機(jī)器人具有很強(qiáng)的靈活性和通用性,能夠處理各種類(lèi)型的任務(wù)和問(wèn)題。持續(xù)學(xué)習(xí)和改進(jìn): 這些模型可以
    發(fā)表于 07-05 08:52

    人工神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)機(jī)器學(xué)習(xí)模型的區(qū)別

    人工神經(jīng)網(wǎng)絡(luò)(ANN)與傳統(tǒng)機(jī)器學(xué)習(xí)模型之間的不同,包括其原理、數(shù)據(jù)處理能力、學(xué)習(xí)方法、適用場(chǎng)景及未來(lái)發(fā)展趨勢(shì)等方面,以期為讀者提供一個(gè)全面的視角。
    的頭像 發(fā)表于 07-04 14:08 ?1109次閱讀

    大語(yǔ)言模型:原理與工程實(shí)踐+初識(shí)2

    前言 深度學(xué)習(xí)機(jī)器學(xué)習(xí)的分支,而大語(yǔ)言模型是深度學(xué)習(xí)的分支。機(jī)器
    發(fā)表于 05-13 00:09

    如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)模型。
    的頭像 發(fā)表于 01-08 09:25 ?920次閱讀
    如何使用TensorFlow構(gòu)建<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    一文理解自舉電路原理

    我們從最簡(jiǎn)單的電路開(kāi)始一點(diǎn)一點(diǎn)分析,先定義一下輸入阻抗的計(jì)算過(guò)程。我們可以粗略的把負(fù)載作為一個(gè)黑盒子來(lái)對(duì)待,所謂的輸入阻抗,就是計(jì)算輸入到這個(gè)黑盒子的電壓與電流的比值,比如下圖,輸入阻抗R=Vin/Iin。
    的頭像 發(fā)表于 12-18 09:24 ?1727次閱讀
    一文理解自舉電路原理

    AI模型底層機(jī)制解析GPT與神經(jīng)網(wǎng)絡(luò)的關(guān)系

    GPT 想必大家已經(jīng)耳熟能詳,當(dāng)我們與它進(jìn)行對(duì)話時(shí),通常只需關(guān)注自己?jiǎn)柍龅膯?wèn)題(輸入)以及 GPT 給出的答案(輸出),對(duì)于輸出內(nèi)容是如何產(chǎn)生的,我們一無(wú)所知,它就像一個(gè)神秘的黑盒子。?
    發(fā)表于 12-13 09:44 ?1364次閱讀
    AI<b class='flag-5'>模型</b>底層機(jī)制解析GPT與神經(jīng)網(wǎng)絡(luò)的關(guān)系