精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基礎(chǔ)模型自監(jiān)督預(yù)訓(xùn)練的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-07-24 16:55 ? 次閱讀
大型語言模型如 ChatGPT 的成功彰顯了海量數(shù)據(jù)在捕捉語言模式和知識(shí)方面的巨大潛力,這也推動(dòng)了基于大量數(shù)據(jù)的視覺模型研究。在計(jì)算視覺領(lǐng)域,標(biāo)注數(shù)據(jù)通常難以獲取,自監(jiān)督學(xué)習(xí)成為預(yù)訓(xùn)練的主流方法。然而,在自監(jiān)督預(yù)訓(xùn)練中,是否數(shù)據(jù)越多越好?數(shù)據(jù)增廣是否始終有效?華為諾亞方舟實(shí)驗(yàn)室與香港科技大學(xué)的研究團(tuán)隊(duì)近期發(fā)現(xiàn):主流自監(jiān)督預(yù)訓(xùn)練方法如 Masked Autoencoder (MAE) 存在負(fù)遷移現(xiàn)象,即在預(yù)訓(xùn)練過程中包含無關(guān)數(shù)據(jù)可能導(dǎo)致下游任務(wù)性能下降。面向 MAE 的有效數(shù)據(jù)增強(qiáng)策略仍有待探討。區(qū)別于對(duì)比學(xué)習(xí)高度依賴數(shù)據(jù)增強(qiáng)策略,在 MAE 中采用數(shù)據(jù)增強(qiáng)策略,如簡(jiǎn)單的圖像混合,可能會(huì)導(dǎo)致互信息 (MI) 的增加而降低模型性能。為解開這些數(shù)據(jù)之謎,研究團(tuán)隊(duì)提出了一種新穎的預(yù)訓(xùn)練范式——Mixture of Cluster-conditional Experts (MoCE)。借鑒 Mixture-of-Experts (MoE) 的概念,MoCE 可以通過一次預(yù)訓(xùn)練,為不同下游任務(wù)提供定制化模型。在多個(gè)下游任務(wù)中,包括圖像分類、目標(biāo)檢測(cè)和分割等,MoCE 超越了傳統(tǒng)的 MAE 預(yù)訓(xùn)練方法。該研究成果已被 ICLR 2023 會(huì)議接收為 Spotlight 論文。2e6c133e-29ff-11ee-a368-dac502259ad0.png ?論文標(biāo)題:Task-customized Masked Autoencoder via Mixture of Cluster-conditional Experts

論文鏈接:

https://openreview.net/forum?id=j8IiQUM33s

此外,團(tuán)隊(duì)還提出了一種名為混合自編碼器 (MixedAE) 的簡(jiǎn)單而有效的方法,將圖像混合應(yīng)用于 MAE 數(shù)據(jù)增強(qiáng)。MixedAE 在各種下游任務(wù)(包括圖像分類、語義分割和目標(biāo)檢測(cè))上實(shí)現(xiàn)了最先進(jìn)的遷移性能,同時(shí)保持了顯著的效率。這是第一個(gè)從任務(wù)設(shè)計(jì)的角度將圖像混合作為有效數(shù)據(jù)增強(qiáng)策略應(yīng)用于基于純自編碼器結(jié)構(gòu)的 Masked Image Modeling (MIM) 的研究。該工作已被 CVPR 2023 會(huì)議接收。

2e8fe020-29ff-11ee-a368-dac502259ad0.png

論文標(biāo)題:Mixed Autoencoder for Self-supervised Visual Representation Learning

論文鏈接:

https://arxiv.org/abs/2303.17152 2eaa6440-29ff-11ee-a368-dac502259ad0.png ?

研究背景

機(jī)器學(xué)習(xí)領(lǐng)域,預(yù)訓(xùn)練模型已經(jīng)成為一種流行的方法,可以提高各種下游任務(wù)的性能。然而,研究發(fā)現(xiàn),自監(jiān)督預(yù)訓(xùn)練存在的負(fù)遷移現(xiàn)象。諾亞 AI 基礎(chǔ)理論團(tuán)隊(duì)的前期工作 SDR (AAAI 2022) [1] 首次指出自監(jiān)督預(yù)訓(xùn)練的負(fù)遷移問題,并提供初步解決方案。具體來說,負(fù)遷移是指在預(yù)訓(xùn)練過程中使用的數(shù)據(jù)與下游任務(wù)的數(shù)據(jù)分布不同,導(dǎo)致預(yù)訓(xùn)練模型在下游任務(wù)上的性能下降。在自監(jiān)督學(xué)習(xí)中,模型在無標(biāo)簽數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,學(xué)習(xí)數(shù)據(jù)的潛在特征和表示。然而,當(dāng)預(yù)訓(xùn)練數(shù)據(jù)與下游任務(wù)的數(shù)據(jù)分布存在顯著差異時(shí),模型可能學(xué)到與下游任務(wù)無關(guān)或甚至有害的特征。

2ec2233c-29ff-11ee-a368-dac502259ad0.png ?相關(guān)工作1. 自監(jiān)督預(yù)訓(xùn)練的負(fù)遷移現(xiàn)象

2ee0f370-29ff-11ee-a368-dac502259ad0.png

▲圖一:我們用ImageNet的兩個(gè)子集,Split-A和Split-B,訓(xùn)練兩個(gè)MAE模型,和全量數(shù)據(jù)集訓(xùn)練的模型相比較,后者僅在2個(gè)數(shù)據(jù)集上達(dá)到了最優(yōu)。這說明,增大數(shù)據(jù)量并不總是帶來更強(qiáng)的遷移效果。

以目前較為流行的自監(jiān)督學(xué)習(xí)算法 MAE 為例,我們?cè)u(píng)估了使用不同語義數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練的 MAE 模型在遷移性能上的表現(xiàn)。我們將 ImageNet 數(shù)據(jù)集分為兩個(gè)不相交的子集 Split-A 和 Split-B,根據(jù) WordNet 樹中標(biāo)簽的語義差異進(jìn)行劃分。Split-A 主要包含無生命物體(如汽車和飛機(jī)),而 Split-B 則主要涉及有機(jī)體(如植物和動(dòng)物)。接著,我們?cè)?Split-A、Split-B 和完整的 ImageNet 數(shù)據(jù)集上分別進(jìn)行了 MAE 預(yù)訓(xùn)練,并在 11 個(gè)下游任務(wù)上評(píng)估了這三個(gè)模型的性能。如圖一所示,在僅含 2 個(gè)語義豐富數(shù)據(jù)集(Caltech,VOC)的情況下,基于完整 ImageNet 訓(xùn)練的 MAE 獲得了最佳的遷移效果;在非生物下游數(shù)據(jù)集 (Aircraft,Cars,SUN,DTD) 上,Split-A 的表現(xiàn)更佳;而在包含 Flowers,F(xiàn)ood,Pets,CIFAR10,CIFAR100 等數(shù)據(jù)集上,Split-B 的表現(xiàn)更優(yōu)。這表明,當(dāng)下游任務(wù)與預(yù)訓(xùn)練數(shù)據(jù)分布不同時(shí),與任務(wù)無關(guān)的預(yù)訓(xùn)練信息可能導(dǎo)致負(fù)遷移,從而限制了 MAE 模型的可擴(kuò)展性。換言之,若一個(gè) MAE 模型的預(yù)訓(xùn)練數(shù)據(jù)去除了與下游任務(wù)數(shù)據(jù)集相似度較低的部分,則其性能可能優(yōu)于包含這些無關(guān)數(shù)據(jù)的預(yù)訓(xùn)練模型。這突顯了開發(fā)針對(duì)特定下游任務(wù)的定制化預(yù)訓(xùn)練方法以避免負(fù)遷移現(xiàn)象的重要性。2. 自監(jiān)督數(shù)據(jù)增強(qiáng)難題在自監(jiān)督預(yù)訓(xùn)練中,與依賴數(shù)據(jù)增強(qiáng)的對(duì)比學(xué)習(xí)不同,我們發(fā)現(xiàn)傳統(tǒng)數(shù)據(jù)增強(qiáng)手段可能會(huì)削弱 MAE 的模型性能。以圖像混合增強(qiáng)(Image Mixing)為例,設(shè)隨機(jī)變量 X1 和 X2 表示兩個(gè)輸入圖像,M 表示隨機(jī)生成的掩碼,我們可以證明混合輸入 σmix({X1,X2},M) 與重構(gòu)目標(biāo) X1 之間的互信息 (MI) 不小于 MAE 輸入 σmae(X1,M) 與 X1 之間的互信息(詳見論文附錄)。2f0e4654-29ff-11ee-a368-dac502259ad0.png因此,簡(jiǎn)單的圖像混合增強(qiáng)會(huì)提升模型輸入與重構(gòu)目標(biāo)之間的互信息。盡管這對(duì)監(jiān)督學(xué)習(xí)和對(duì)比學(xué)習(xí)有益,但它卻簡(jiǎn)化了 MAE 的圖像重構(gòu)任務(wù),因?yàn)檠诖a操作 (masking) 的根本目的恰恰是降低模型輸入和重構(gòu)目標(biāo)之間的互信息,以減少圖像信號(hào)的冗余。這表明以 MAE 為代表的掩碼圖像建模對(duì)數(shù)據(jù)增強(qiáng)具有與傳統(tǒng)判別式訓(xùn)練范式不同的偏好,進(jìn)而帶來了 MAE 自監(jiān)督學(xué)習(xí)中的數(shù)據(jù)增強(qiáng)難題。 2f22e41a-29ff-11ee-a368-dac502259ad0.png ?方法1. MoCEMixture of Cluster-conditional Expert (MoCE) 通過數(shù)據(jù)聚類和顯式地使用具有相似語義的圖像來訓(xùn)練每個(gè)專家,以實(shí)現(xiàn)針對(duì)特定任務(wù)的定制自監(jiān)督預(yù)訓(xùn)練。MoCE 的過程分為三個(gè)階段,具體如下:1. 首先,我們使用預(yù)先訓(xùn)練好的 MAE 模型對(duì)整個(gè)數(shù)據(jù)集進(jìn)行聚類。每張圖片被分到不同的聚類中,并記錄每個(gè)聚類的中心點(diǎn),形成矩陣 C。2. 然后,受 Mixture-of-Experts (MoE) 多專家模型的啟發(fā),我們構(gòu)建了基于聚類先驗(yàn)的 MoCE 模型。與目前常用的視覺多專家模型將每個(gè)圖像的 token 路由到某個(gè)專家不同,MoCE 讓每個(gè)專家負(fù)責(zé)訓(xùn)練一組相似的聚類圖片,使得每個(gè)專家在不同語義數(shù)據(jù)上得到顯式訓(xùn)練。具體來說,現(xiàn)有的視覺多專家模型基于 ViT 構(gòu)建,將原先某些 Transformer Block 中的單個(gè) MLP 層擴(kuò)展為多個(gè) MLP 層,每個(gè) MLP 被稱作一個(gè)專家 (expert)。同時(shí)引入一個(gè)門控網(wǎng)絡(luò) (gate network),該門控網(wǎng)絡(luò)決定每個(gè) token 應(yīng)該去往哪個(gè)專家。MoCE 多專家層的核心改變是門控網(wǎng)絡(luò)的輸入:2f3b9a1e-29ff-11ee-a368-dac502259ad0.png這里,C[x] 表示 token x 所屬圖片所在的聚類中心(我們?cè)诘谝徊揭呀?jīng)完成了聚類),而不是原先的 token 嵌入。這樣,屬于同一個(gè)聚類的圖片的 tokens 都會(huì)被路由到同一個(gè)專家,從而顯式地區(qū)分每個(gè)專家在語義上的差異。為了穩(wěn)定訓(xùn)練并增強(qiáng)門控網(wǎng)絡(luò)的置信度,我們提出了兩個(gè)額外的正則化損失,并在實(shí)驗(yàn)中發(fā)現(xiàn)了它們的有效性。3. 當(dāng)下游任務(wù)到達(dá)時(shí),我們引入了一個(gè)搜索模塊來選擇最適合用于遷移學(xué)習(xí)的專家。具體而言,我們重復(fù)利用第一步提到的聚類模塊,找到與下游數(shù)據(jù)集最相似的聚類,然后找到該聚類所訓(xùn)練的專家,將其單獨(dú)提取出來,舍棄其他專家進(jìn)行遷移。這樣,在下游任務(wù)中,我們始終使用一個(gè)正常大小的 ViT 模型。2. MixedAEMixed Autoencoder (MixedAE) 提出輔助代理任務(wù)——同源識(shí)別(Homologous recognition),旨在顯示要求每個(gè)圖像塊識(shí)別混合圖像中的同源圖像塊以緩解圖像混合所導(dǎo)致的互信息上升,從而實(shí)現(xiàn)物體感知的自監(jiān)督預(yù)訓(xùn)練。MixedAE 的過程分為三個(gè)階段,具體如下:1. 混合階段:在給定混合系數(shù) r 的情況下,將輸入圖像隨機(jī)劃分為不同的圖像組,并根據(jù) r 對(duì)每個(gè)圖像組進(jìn)行隨機(jī)混合,生成混合圖像。2. 識(shí)別階段:鑒于 Vision Transformer 中全局自注意力的使用,在重構(gòu)過程中,各個(gè)圖像塊不可避免地與來自其他圖像的異源圖像塊發(fā)生交互,從而導(dǎo)致互信息的上升。因此我們提出同源自注意力機(jī)制 (Homologous attention),通過部署一個(gè)簡(jiǎn)單的 TopK 采樣操作,要求每個(gè)圖像塊顯示識(shí)別并僅與同源圖像塊做自注意力計(jì)算,以抑制互信息的上升。2f571b9a-29ff-11ee-a368-dac502259ad0.png3. 驗(yàn)證階段:為了驗(yàn)證同源自注意力的準(zhǔn)確性,我們提出同源對(duì)比損失 (Homologous contrasitve)。對(duì)于任意查詢圖像塊 (query patch),我們將其同源圖像塊視為正樣本,異源圖像塊作為負(fù)樣本,以促進(jìn)同源圖像塊特征的相似度,從而顯示要求圖像塊識(shí)別并僅和同源圖像塊做自注意力計(jì)算。最后,同源對(duì)比損失將和原始圖像重構(gòu)損失一起以多任務(wù)形式優(yōu)化網(wǎng)絡(luò)參數(shù)進(jìn)行自監(jiān)督預(yù)訓(xùn)練。 2f74073c-29ff-11ee-a368-dac502259ad0.png ?

實(shí)驗(yàn)分析

1. MoCE

我們?cè)谥疤岬降?11 個(gè)下游分類數(shù)據(jù)集和檢測(cè)分割任務(wù)上做了實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,MoCE 在多個(gè)下游任務(wù)中的性能超過了傳統(tǒng)的 MAE 預(yù)訓(xùn)練方法。具體而言,在圖像分類任務(wù)中,MoCE 相較于 MAE 實(shí)現(xiàn)了更高的準(zhǔn)確率。在目標(biāo)檢測(cè)和分割任務(wù)中,MoCE 也取得了更好的表現(xiàn),包括更高的 mIoU 和 AP 指標(biāo)。這些實(shí)驗(yàn)結(jié)果表明,MoCE 通過利用相似語義圖像進(jìn)行聚類并為每個(gè)專家進(jìn)行任務(wù)定制的自監(jiān)督預(yù)訓(xùn)練,能夠在各種下游任務(wù)中提高遷移性能。

2f8c2614-29ff-11ee-a368-dac502259ad0.png▲表一:MoCE在細(xì)粒度數(shù)據(jù)集上有較大提升,在類別比較寬泛的任務(wù)上也有少量提升。2. MixedAE

在 14 個(gè)下游視覺任務(wù)(包括圖像分類、語義分割和物體檢測(cè))的評(píng)估中,MixedAE 展現(xiàn)了最優(yōu)的遷移性能和卓越的計(jì)算效率。相較于 iBOT,MixedAE 實(shí)現(xiàn)了約 2 倍預(yù)訓(xùn)練加速。得益于圖像混合所帶來的物體感知預(yù)訓(xùn)練,MixedAE 在下游密集預(yù)測(cè)任務(wù)上取得更顯著的性能提升。注意力圖可視化結(jié)果表明,MixedAE 能比 MAE 更準(zhǔn)確完整地識(shí)別圖像前景物體,從而實(shí)現(xiàn)優(yōu)異的密集預(yù)測(cè)遷移性能。

2fdd4f4e-29ff-11ee-a368-dac502259ad0.png表二:MixedAE在不同訓(xùn)練代價(jià)下均獲得當(dāng)前最優(yōu)結(jié)果,展現(xiàn)了卓越的計(jì)算效率。

30217476-29ff-11ee-a368-dac502259ad0.png

▲圖二:注意力圖可視化。得益于ImageNet的單實(shí)例假設(shè)[2]以及物體感知的自監(jiān)督預(yù)訓(xùn)練,MixedAE可以更準(zhǔn)確完整地發(fā)現(xiàn)圖像前景物體,從而實(shí)現(xiàn)更好的密集預(yù)測(cè)遷移性能。

30a6743c-29ff-11ee-a368-dac502259ad0.png ?作者介紹結(jié)合 MoCE 和 MixedAE 的研究發(fā)現(xiàn),我們揭示了自監(jiān)督預(yù)訓(xùn)練中數(shù)據(jù)之謎:數(shù)據(jù)量不再是唯一關(guān)鍵因素,而是如何利用數(shù)據(jù)和進(jìn)行定制化預(yù)訓(xùn)練和數(shù)據(jù)增廣更為關(guān)鍵。MoCE 通過數(shù)據(jù)聚類和專家定制訓(xùn)練,顯著提高了針對(duì)特定下游任務(wù)的遷移性能。MixedAE 則通過一種簡(jiǎn)單有效的圖像混合方法,實(shí)現(xiàn)了在各種下游任務(wù)中的最先進(jìn)遷移性能。這些研究發(fā)現(xiàn)不僅為自監(jiān)督預(yù)訓(xùn)練領(lǐng)域提供了新的視角,還為開發(fā)更為高效、可擴(kuò)展和定制化的預(yù)訓(xùn)練方法提供了指導(dǎo)和啟示。我們希望這些探索是一個(gè)有效利用更多數(shù)據(jù)量的途徑,并為研究者們提供新的思路。 30bea20a-29ff-11ee-a368-dac502259ad0.svg

參考文獻(xiàn)

30bea20a-29ff-11ee-a368-dac502259ad0.svg ?

[1] Task-customized Self-supervised Pre-training with Scalable Dynamic Routing, AAAI 2022.

[2] MultiSiam: Self-supervised Multi-instance Siamese Representation Learning for Autonomous Driving, ICCV 2021.

·


原文標(biāo)題:基礎(chǔ)模型自監(jiān)督預(yù)訓(xùn)練的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

文章出處:【微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:基礎(chǔ)模型自監(jiān)督預(yù)訓(xùn)練的數(shù)據(jù)之謎:大量數(shù)據(jù)究竟是福還是禍?

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    PCM1861 INT腳究竟是輸出還是輸入?

    這個(gè)芯片activce或是idle. 是否有人解釋下,INT腳究竟是輸出還是輸入。我希望是輸出,我需要讀取到是否有analog audio輸入的信息。 或者,輸入輸出與否還要靠其他什么地方設(shè)置? 盼望有人回復(fù)解答,不勝感激!
    發(fā)表于 10-29 07:29

    AI大模型訓(xùn)練數(shù)據(jù)來源分析

    學(xué)術(shù)機(jī)構(gòu)、政府組織或企業(yè)公開發(fā)布,涵蓋了各種類型的數(shù)據(jù),如圖像、文本、音頻、視頻等。例如: ImageNet :一個(gè)廣泛用于圖像識(shí)別任務(wù)的大規(guī)模圖像數(shù)據(jù)集。 Common Crawl :提供了大量的網(wǎng)頁抓取
    的頭像 發(fā)表于 10-23 15:32 ?367次閱讀

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目
    的頭像 發(fā)表于 10-18 08:09 ?161次閱讀
    直播預(yù)約 |<b class='flag-5'>數(shù)據(jù)</b>智能系列講座第4期:<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)學(xué)習(xí)

    揭秘貼片功率電感發(fā)燙究竟是不是燒壞了

    電子發(fā)燒友網(wǎng)站提供《揭秘貼片功率電感發(fā)燙究竟是不是燒壞了.docx》資料免費(fèi)下載
    發(fā)表于 09-30 14:44 ?0次下載

    電感器線徑究竟是粗好還是細(xì)好

    電子發(fā)燒友網(wǎng)站提供《電感器線徑究竟是粗好還是細(xì)好.docx》資料免費(fèi)下載
    發(fā)表于 09-20 11:25 ?0次下載

    運(yùn)放輸入偏置電流的方向是流入運(yùn)放芯片還是流出運(yùn)放芯片?這個(gè)怎么確定的?

    運(yùn)放輸入偏置電流的方向究竟是流入運(yùn)放芯片還是流出運(yùn)放芯片這個(gè)怎么確定的?是不是得看運(yùn)放是三級(jí)管還是MOS管組成的,三極管還得看究竟是NPN還是
    發(fā)表于 08-23 07:29

    tas5756m使用GPIO口加內(nèi)部PLL產(chǎn)生MCLK的方法究竟是怎么樣的?

    tas5756m使用GPIO口加內(nèi)部PLL產(chǎn)生MCLK的方法究竟是怎么樣的?
    發(fā)表于 08-19 06:06

    大語言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語言模型預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使
    的頭像 發(fā)表于 07-11 10:11 ?386次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,尤其是在自然語言處理(NLP)和計(jì)算機(jī)視覺(CV)等領(lǐng)域中得到了廣泛應(yīng)用。預(yù)
    的頭像 發(fā)表于 07-03 18:20 ?2360次閱讀

    請(qǐng)問cH340G的TX引腳電平究竟是3v還是5v?

    用CD34G來實(shí)現(xiàn)usb轉(zhuǎn)串口的時(shí)候,直接用usb口的5v作為電源電壓,它的tx引腳輸出的高電平究竟是5v還是3v,我實(shí)測(cè)是3v,但網(wǎng)上有的人是5v,想進(jìn)一步得到大家的確認(rèn)。
    發(fā)表于 05-14 08:15

    【大語言模型:原理與工程實(shí)踐】大語言模型預(yù)訓(xùn)練

    大語言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對(duì)預(yù)訓(xùn)練
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    預(yù)訓(xùn)練和微調(diào),直到模型的部署和性能評(píng)估。以下是對(duì)這些技術(shù)的綜述: 模型架構(gòu): LLMs通常采用深層的神經(jīng)網(wǎng)絡(luò)架構(gòu),最常見的是Transformer網(wǎng)絡(luò),它包含多個(gè)
    發(fā)表于 05-05 10:56

    STM32擦除后數(shù)據(jù)究竟是0x00還是0xff ?

    STM32擦除后數(shù)據(jù)究竟是0x00還是0xff ,百度查了許多發(fā)現(xiàn)大多數(shù)都是0xff的多,都說SD卡(TF)儲(chǔ)存介質(zhì)是Flash 所以擦除后為0xff,但是我遇到了讀出來的數(shù)據(jù)是0x0
    發(fā)表于 04-18 07:59

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.30】大規(guī)模語言模型:從理論到實(shí)踐

    榜銷售TOP1的桂冠,可想大家對(duì)本書的認(rèn)可和支持! 這本書為什么如此受歡迎?它究竟講了什么?下面就給大家詳細(xì)~~ 本書主要內(nèi)容 本書圍繞大語言模型構(gòu)建的四個(gè)主要階段——預(yù)訓(xùn)練、有
    發(fā)表于 03-11 15:16

    同步電機(jī)的轉(zhuǎn)數(shù)同步究竟是與什么同步啊?

    同步電機(jī)的轉(zhuǎn)數(shù)同步究竟是與什么同步啊? 所有的同步電機(jī)的轉(zhuǎn)數(shù)都一樣嗎?還是與電機(jī)的極對(duì)數(shù)有關(guān)系呢?
    發(fā)表于 12-19 06:44