精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌開發出一個新的語言模型,包含了超過1.6萬億個參數

ss ? 來源:陳述根本 ? 作者:陳根 ? 2021-01-19 15:29 ? 次閱讀

開發人工智能的語言模型,一直是人工智能的重要細分領域。人工智能語言模型應用包括搜索引擎、文字生成、個性化的對話工具以及軟件生成等。

2020年5月,OpenAI的一組研究人員發布了具有里程碑意義的AI模型GPT-3。GPT-3就是在570 GB的文本數據上訓練的語言模型,因此,就訓練數據和生成能力而言,GPT-3截至2020年都是最龐大的公開發布的語言模型。

此外,OpenAI的GPT-3一反之前死守基礎研究的思路,將 GPT-3 做成了一個服務,提供可以調用的 OpenAI API,并且向開放了少量體驗資格,使得拿到體驗資格的業界人士或學者等,開發出了一眾驚人的演示。

包括答題、翻譯、寫文章,甚至是數學計算和編寫代碼。而由GPT-3所寫的文章幾乎達到了以假亂真的地步,在 OpenAI 的測試中,人類評估人員也很難判斷出這篇新聞的真假,檢測準確率僅為 12%。

但現在,谷歌研究人員開發出一個新的語言模型,它包含了超過 1.6 萬億個參數,遠超 Open AI 開發的 GTP-3 的規模(1750 億個參數),成為迄今為止最大規模的人工智能語言模型,比之前谷歌開發過最大的語言模型 T5-XXL 的效率提高了 4 倍。

該語言模型使用 Switch Transformer 方法進行大規模訓練,這是一種“稀疏激活”技術,它只使用模型權重的子集或在模型中轉換輸入數據的參數,以有效降低計算密集度。

盡管在部分實驗中,該模型相比規模更小的模型得到了較低分數。但在相同的計算資源下,預訓練速度提高了7倍。這些改進擴展到多語言設置中,我們在所有101種語言中測量mT5基本版本的增益。最后,我們通過在“巨大的干凈的爬蟲語料庫”上預先訓練多達萬億個參數的模型,提高了語言模型的當前規模,并實現了比T5-XXL模型4倍的加速。

研究人員認為,稀疏性可以在未來賦予該模型在一系列不同媒體下多模態的優勢。這也為人工智能語言模型的深入研究提供了更多方向的參考。

責任編輯:xj

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    30239

    瀏覽量

    268480
  • 人工智能
    +關注

    關注

    1791

    文章

    46896

    瀏覽量

    237672
  • 語言模型
    +關注

    關注

    0

    文章

    508

    瀏覽量

    10247
收藏 人收藏

    評論

    相關推薦

    從零開始訓練語言模型需要投資多少錢?

    ,前言 ? 在AI領域,訓練大型語言模型(LLM)是
    的頭像 發表于 11-08 14:15 ?151次閱讀
    從零開始訓練<b class='flag-5'>一</b><b class='flag-5'>個</b>大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>需要投資多少錢?

    語言模型如何開發

    語言模型開發復雜且細致的過程,涵蓋了數據準備、模型架構設計、訓練、微調和部署等多個階段
    的頭像 發表于 11-04 10:14 ?93次閱讀

    聯發科新代天璣旗艦芯片針對谷歌語言模型Gemini Nano優化

    近日,聯發科宣布了重要的技術進展——新代天璣旗艦芯片已經針對谷歌的大語言模型Gemini
    的頭像 發表于 10-09 16:44 ?408次閱讀

    谷歌發布新型大語言模型Gemma 2

    在人工智能領域,大語言模型直是研究的熱點。近日,全球科技巨頭谷歌宣布,面向全球研究人員和開發人員,正式發布了其最新研發的大
    的頭像 發表于 06-29 09:48 ?410次閱讀

    谷歌不行?股價卻新高!Meta逆天?蒸發1.6萬億…微軟:都是弟弟

    夜蒸發了1.6萬億。只有微軟繼續超預期,看著另外兩位不靠譜的對手微微笑,拿回全球市值第的交椅。谷歌
    的頭像 發表于 05-09 08:04 ?136次閱讀
    <b class='flag-5'>谷歌</b>不行?股價卻新高!Meta逆天?蒸發<b class='flag-5'>1.6</b><b class='flag-5'>萬億</b>…微軟:都是弟弟

    【大語言模型:原理與工程實踐】大語言模型的應用

    類任務上表現出色,甚至在零樣本條件下也能取得良好效果。另類則需要逐步推理才能完成的任務,類似于人類的系統2,如數字推理等。然而,隨著參數量的增加,大語言模型在這類任務上并未出現質的飛
    發表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    特定任務對模型進行微調。這種方法的成功不僅是自然語言處理發展的轉折點,還為許多現實世界的應用場帶來了前所未有的性能提升。從廣為人知的GPT到BERT,預訓練的
    發表于 05-05 12:17

    名單公布!【書籍評測活動NO.30】大規模語言模型:從理論到實踐

    ,在大模型實踐和理論研究的過程中,歷時8月完成 《大規模語言模型:從理論到實踐》 書的撰寫。希望這本書能夠幫助讀者快速入門大
    發表于 03-11 15:16

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開發的用于機器學習和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是
    的頭像 發表于 03-01 16:25 ?812次閱讀

    谷歌模型軟件有哪些功能

    谷歌模型軟件通常指的是谷歌推出的系列人工智能模型和軟件工具,其中最具代表性的是Google Gemini。Google Gemini是
    的頭像 發表于 03-01 16:20 ?615次閱讀

    谷歌模型框架是什么?有哪些功能和應用?

    谷歌模型框架(Google Model Framework)并不是特定的框架,而是指谷歌開發
    的頭像 發表于 02-29 18:11 ?1423次閱讀

    只修改關鍵參數,就會毀了整個百億參數模型

    2022 年開始,我們發現 Multilingual BERT 是經過大規模跨語言訓練驗證的模型實例,其展示出了優異的跨語言遷移能力。具
    的頭像 發表于 02-20 14:51 ?718次閱讀
    只修改<b class='flag-5'>一</b><b class='flag-5'>個</b>關鍵<b class='flag-5'>參數</b>,就會毀了整個百億<b class='flag-5'>參數</b>大<b class='flag-5'>模型</b>?

    Stability AI推出迄今為止更小、更高效的1.6B語言模型

    Stability AI 宣布推出迄今為止最強大的小語言模型 Stable LM 2 1.6B。
    的頭像 發表于 01-23 10:11 ?756次閱讀
    Stability AI推出迄今為止更小、更高效的<b class='flag-5'>1.6</b>B<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    【飛騰派4G版免費試用】仙女姐姐的嵌入式實驗室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    預訓練語言模型。該模型最大的特點就是基于以較小的參數規模取得了優秀的性能,根據官網提供的信息,LLaMA的模型
    發表于 12-22 10:18

    微軟宣布推出27億參數語言模型Phi-2

    Phi-2 是微軟 “小語言模型(SLM)” 系列中的最新版本。第一個版本是擁有 13 億參數的 Phi-1,針對基本的 Python 編碼任務進行了微調。
    發表于 12-15 09:46 ?253次閱讀
    微軟宣布推出<b class='flag-5'>一</b><b class='flag-5'>個</b>27億<b class='flag-5'>參數</b>的<b class='flag-5'>語言</b><b class='flag-5'>模型</b>Phi-2