精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)

倩倩 ? 來源:云溪初閣 ? 2020-04-15 14:21 ? 次閱讀

監(jiān)督學(xué)習(xí)

監(jiān)督學(xué)習(xí),小編有個簡單的理解方式,按照這個順序來理解

1、有兩撥人,一撥人是好人,一撥是壞人

2、好人的行為特征有:扶老奶奶過馬路,撿到一分錢交給警察叔叔,當(dāng)志愿者等等

3、壞人的行為特征有:偷東西,搶劫,欺負(fù)好人等等

4、有個審判官,根據(jù)你的行為來進(jìn)行判斷是好人還是壞人

5、新進(jìn)來一個小伙伴,由于此人經(jīng)常扶老奶奶過馬路,當(dāng)志愿者等等,因此審判官就把你判斷為好人

這五點(diǎn),融入到機(jī)器學(xué)習(xí)里面,用機(jī)器學(xué)習(xí)的話來說

好人與壞人:標(biāo)簽

好人或者壞人的行為:特征值

審判官:訓(xùn)練好的模型

新來的小伙伴:未知類別,待打上標(biāo)簽的數(shù)據(jù)

這樣子是不是就比較好理解了,機(jī)器學(xué)習(xí)里面,先根據(jù)已有數(shù)據(jù)進(jìn)行模型訓(xùn)練從而得到一個函數(shù),當(dāng)有新的數(shù)據(jù)到來的時候,根據(jù)這個函數(shù)預(yù)測結(jié)果。

監(jiān)督學(xué)習(xí)里面的訓(xùn)練集合包含了輸入與輸出,代表著特征值與標(biāo)簽值。

在一般情況下,用來訓(xùn)練的訓(xùn)練集的標(biāo)簽都是由業(yè)務(wù)方來標(biāo)記,在工作中,最常見的其實(shí)就是數(shù)據(jù)分類了,通過已有的訓(xùn)練的樣本去訓(xùn)練得到一個模型,我們會采用K折交叉驗(yàn)證來進(jìn)行調(diào)參,從而得到參數(shù)的局部最優(yōu)解,再根據(jù)這個模型去預(yù)測數(shù)據(jù)。

在監(jiān)督學(xué)些中,最常見的是回歸與分類,常見的算法有KNN,SVM,隨機(jī)森林等

無監(jiān)督學(xué)習(xí)

相比于監(jiān)督學(xué)習(xí),無監(jiān)督學(xué)習(xí),其實(shí)就是少了這個監(jiān)督,也就是沒有標(biāo)簽。

還是那兩撥人,但是這兩撥人沒有實(shí)現(xiàn)標(biāo)記誰是好人,誰是壞人,他們聚在一起,這時候,上帝之手出現(xiàn)了,它讓這些人喜歡干嘛就去干吧,不要猶豫,于是乎,好人們開始去扶老奶奶過馬路,壞人們開始去當(dāng)小偷,上帝之手成功把這兩撥人給分離開來,接著,給他們分別打上標(biāo)簽:好人,壞人。

這個上帝之手,就是計算機(jī)。

無監(jiān)督學(xué)習(xí)中,有兩種方法

1、基于概率密度函數(shù)直接評估:其實(shí)就是根據(jù)每一個類別的特征在空間的分布情況得到分布參數(shù),根據(jù)這些分布參數(shù)來進(jìn)行分類。

2、基于數(shù)據(jù)樣本之間的相似性進(jìn)行度量的聚類方式:假定每一個類別都有核心(當(dāng)成黑幫老大來理解),以這個核心的特征為標(biāo)準(zhǔn),把其他樣本的特征與這個核心的特征進(jìn)行比較,當(dāng)發(fā)現(xiàn)這是一類人的時候,就整合在一起好了,這樣子,不同類別就出來了。

這就是聚類,算法中,K-Mean,PCA,很多深度學(xué)習(xí)的算法,都是無監(jiān)督學(xué)習(xí)。

兩者的區(qū)別

1、監(jiān)督學(xué)習(xí)必須有訓(xùn)練樣本及測試樣本,對訓(xùn)練樣本進(jìn)行訓(xùn)練得到規(guī)律,再用這個規(guī)律來運(yùn)用在測試樣本上;當(dāng)時無監(jiān)督學(xué)習(xí)就不用,一組數(shù)據(jù),啥都沒有,直接就扔給計算機(jī),讓它自己算。

2、監(jiān)督學(xué)習(xí)必須有標(biāo)簽,無監(jiān)督學(xué)習(xí)不用標(biāo)簽,讓計算機(jī)自己去分類,然后我們?nèi)斯じ鶕?jù)業(yè)務(wù)情況打上標(biāo)簽。

兩者的使用場景

這個說簡單也挺簡單,根據(jù)業(yè)務(wù)方來定,如果業(yè)務(wù)方給了一組數(shù)據(jù),然后還告知了類別,那就用監(jiān)督學(xué)習(xí),反著,則用無監(jiān)督學(xué)習(xí)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦

    時空引導(dǎo)下的時間序列自監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個組織聯(lián)合發(fā)布了一篇時間序列監(jiān)督預(yù)訓(xùn)練的文章,相比原來的TS2Vec等時間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?133次閱讀
    時空引導(dǎo)下的時間序列自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學(xué)習(xí),還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自監(jiān)督學(xué)習(xí)策略,在大量標(biāo)簽文本數(shù)據(jù)
    發(fā)表于 08-02 11:03

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機(jī)器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)和強(qiáng)化
    發(fā)表于 07-25 14:33

    神經(jīng)網(wǎng)絡(luò)如何用監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中監(jiān)督學(xué)習(xí)是一種重要的訓(xùn)練策略。監(jiān)督學(xué)習(xí)旨在從未標(biāo)記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結(jié)構(gòu)、模
    的頭像 發(fā)表于 07-09 18:06 ?699次閱讀

    深度學(xué)習(xí)中的監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的監(jiān)督學(xué)
    的頭像 發(fā)表于 07-09 10:50 ?513次閱讀

    基于FPGA的類腦計算平臺 —PYNQ 集群的監(jiān)督圖像識別類腦計算系統(tǒng)

    STDP 監(jiān)督學(xué)習(xí)算法,可運(yùn)用于圖像的 監(jiān)督分類。 從平臺設(shè)計角度: (1)本設(shè)計搭建的基于 PYNQ 集群的通用低功耗的大規(guī)模類腦計算平臺,搭載 PYNN,NEST 等
    發(fā)表于 06-25 18:35

    CVPR&apos;24 Highlight!跟蹤3D空間中的一切!

    為了使用三維運(yùn)動先驗(yàn)正則化估計的三維軌跡,模型另外預(yù)測了每條軌跡的剛性嵌入,這使能夠軟地分組表現(xiàn)出相同剛性體運(yùn)動的像素,并為每個剛性集群強(qiáng)制執(zhí)行ARAP正則化。作者證明了剛性嵌入可以通過自監(jiān)督學(xué)習(xí),并產(chǎn)生不同剛性部分的合理分割。
    的頭像 發(fā)表于 04-13 12:12 ?1165次閱讀
    CVPR&apos;24 Highlight!跟蹤3D空間中的一切!

    機(jī)器學(xué)習(xí)基礎(chǔ)知識全攻略

    監(jiān)督學(xué)習(xí)通常是利用帶有專家標(biāo)注的標(biāo)簽的訓(xùn)練數(shù)據(jù),學(xué)習(xí)一個從輸入變量X到輸入變量Y的函數(shù)映射。Y = f (X),訓(xùn)練數(shù)據(jù)通常是(n×x,y)的形式,其中n代表訓(xùn)練樣本的大小,x和y分別是變量X和Y的樣本值。
    發(fā)表于 02-25 13:53 ?212次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>基礎(chǔ)知識全攻略

    OpenAI推出Sora:AI領(lǐng)域的革命性突破

    大模型的核心技術(shù)是自然語言處理(NLP)和深度學(xué)習(xí)。具體而言,它基于Transformer架構(gòu),使用了大規(guī)模監(jiān)督學(xué)習(xí)方法,例如自回歸語言建模和掩碼語言建模,來訓(xùn)練一個龐大的神經(jīng)網(wǎng)絡(luò)模型。
    發(fā)表于 02-21 16:36 ?992次閱讀
    OpenAI推出Sora:AI領(lǐng)域的革命性突破

    Meta發(fā)布新型監(jiān)督視頻預(yù)測模型“V-JEPA”

    Meta,這家社交媒體和科技巨頭,近日宣布推出一種新型的監(jiān)督視頻預(yù)測模型,名為“V-JEPA”。這一模型在視頻處理領(lǐng)域引起了廣泛關(guān)注,因?yàn)樗ㄟ^抽象性預(yù)測生成視頻中缺失或模糊的部分來進(jìn)行學(xué)習(xí),提供了一種全新的視頻處理方法。
    的頭像 發(fā)表于 02-19 11:19 ?947次閱讀

    2024年AI領(lǐng)域?qū)心男┬峦黄颇兀?/a>

    傳統(tǒng)的機(jī)器學(xué)習(xí)需要大量的標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,但自監(jiān)督學(xué)習(xí)可以通過監(jiān)督的方式從大規(guī)模未標(biāo)記的數(shù)據(jù)中學(xué)習(xí)到更有用的表示形式,從而提高模型的性能。
    的頭像 發(fā)表于 01-24 09:58 ?1952次閱讀

    使用自監(jiān)督學(xué)習(xí)重建動態(tài)駕駛場景

    無論是單調(diào)的高速行車,還是平日的短途出行,駕駛過程往往平淡無奇。因此,在現(xiàn)實(shí)世界中采集的用于開發(fā)自動駕駛汽車(AV)的大部分訓(xùn)練數(shù)據(jù)都明顯偏向于簡單場景。 這給部署魯棒的感知模型帶來了挑戰(zhàn)。自動駕駛汽車必須接受全面的訓(xùn)練、測試和驗(yàn)證,以便能夠應(yīng)對復(fù)雜的場景,而這需要大量涵蓋此類場景的數(shù)據(jù)。 在現(xiàn)實(shí)世界中,收集此類場景數(shù)據(jù)要耗費(fèi)大量時間和成本。而現(xiàn)在,仿真提供了另一個可選方案。但要大規(guī)模生成復(fù)雜動態(tài)場景仍然
    的頭像 發(fā)表于 12-16 16:05 ?631次閱讀
    使用自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>重建動態(tài)駕駛場景

    基于transformer和自監(jiān)督學(xué)習(xí)的路面異常檢測方法分享

    鋪設(shè)異常檢測可以幫助減少數(shù)據(jù)存儲、傳輸、標(biāo)記和處理的壓力。本論文描述了一種基于Transformer和自監(jiān)督學(xué)習(xí)的新方法,有助于定位異常區(qū)域。
    的頭像 發(fā)表于 12-06 14:57 ?1466次閱讀
    基于transformer和自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>的路面異常檢測方法分享

    監(jiān)督域自適應(yīng)場景:基于檢索增強(qiáng)的情境學(xué)習(xí)實(shí)現(xiàn)知識遷移

    本文對比了多種基線方法,包括監(jiān)督域自適應(yīng)的傳統(tǒng)方法(如Pseudo-labeling和對抗訓(xùn)練)、基于檢索的LM方法(如REALM和RAG)和情境學(xué)習(xí)方法(如In-context learning)。
    發(fā)表于 12-05 14:14 ?564次閱讀
    <b class='flag-5'>無</b><b class='flag-5'>監(jiān)督</b>域自適應(yīng)場景:基于檢索增強(qiáng)的情境<b class='flag-5'>學(xué)習(xí)</b>實(shí)現(xiàn)知識遷移

    動態(tài)場景下的自監(jiān)督單目深度估計方案

    監(jiān)督單目深度估計的訓(xùn)練可以在大量標(biāo)簽視頻序列來進(jìn)行,訓(xùn)練集獲取很方便。但問題是,實(shí)際采集的視頻序列往往會有很多動態(tài)物體,而自監(jiān)督訓(xùn)練本身就是基于靜態(tài)環(huán)境假設(shè),動態(tài)環(huán)境下會失效。
    發(fā)表于 11-28 09:21 ?676次閱讀
    動態(tài)場景下的自<b class='flag-5'>監(jiān)督</b>單目深度估計方案