精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么ChatGPT模型大了就有上下文聯(lián)系能力?

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 2023-04-27 09:50 ? 次閱讀

關(guān)于這點(diǎn),在一篇采訪OpenAI 總裁Greg Brockman 的報(bào)道中提到了:

“Q:ChatGPT是如何產(chǎn)生的?GPT模型當(dāng)初發(fā)布時(shí)顯得有些違反常識(shí),但卻在某種程度上掀起了最新的AI浪潮,這與你們當(dāng)初構(gòu)建這些技術(shù)時(shí)的預(yù)期是否一致?

A:ChatGPT、GPT-3、DALL·E 2這些模型看似一夜成名,但其實(shí)構(gòu)建這些模型耗費(fèi)了整整五年時(shí)間,飽含多年的心血。GPT模型的構(gòu)建要從2017年發(fā)布的情感神經(jīng)元論文(Neural Sentiment Neuron: A novel Neural Architecture for Aspect-based Sentiment Analysis)說(shuō)起,這篇論文的思想很新穎,不過(guò)很多人可能已經(jīng)忘了。

....“

于是好奇去查了這篇文章,很遺憾,并不是上面提到的這篇文章,而是官網(wǎng)Learning to Generate Reviews and Discovering Sentiment這篇文章。這篇文章的作者很激動(dòng)、誠(chéng)懇甚至有點(diǎn)卑微的表達(dá)了它的意外發(fā)現(xiàn),那就是單純訓(xùn)練LSTM 模型的去預(yù)測(cè)下一個(gè)單詞,模型中的某個(gè)神經(jīng)元意外對(duì)應(yīng)著情感狀態(tài),用Greg Brockman的原話說(shuō)就是:

“我們發(fā)現(xiàn)LSTM模型中的單個(gè)神經(jīng)元有助于開(kāi)發(fā)出SOTA情感分析分類器(sentiment analysis classifier),可以告知你文本情感(正面評(píng)價(jià)或負(fù)面評(píng)價(jià)),這一發(fā)現(xiàn)聽(tīng)起來(lái)平平無(wú)奇,但我們非常清楚地知道,這是一個(gè)超越語(yǔ)法并轉(zhuǎn)向語(yǔ)義的時(shí)刻。”

關(guān)于為何會(huì)出現(xiàn)這種涌現(xiàn)行為,文章的作者提出了他的思路:

“情緒作為條件特征可能對(duì)語(yǔ)言建模具有很強(qiáng)的預(yù)測(cè)能力。(It is possible that sentiment as a conditioning feature has strong predictive capability for language modelling.)“

這個(gè)思路是典型的達(dá)爾文進(jìn)化思維:

即模型本身有生成各種能力的潛力,當(dāng)某項(xiàng)能力有利于模型完成任務(wù)(完不成的參數(shù)被調(diào)整,等駕馭被任務(wù)淘汰),這項(xiàng)能力就能自發(fā)進(jìn)化出來(lái)。

神經(jīng)網(wǎng)絡(luò)在訓(xùn)練的時(shí)候,采用的隨機(jī)梯度下降算法,一定程度上等效于物種的基因突變,本質(zhì)是有一定方向的隨機(jī)摸索,在強(qiáng)大的生存壓力下,錯(cuò)誤的摸索被淘汰,久而久之,積累越來(lái)越多的正確摸索,某些高層的功能就這么涌現(xiàn)出來(lái)了。

這種思路是不同于還原論的,ChatGPT 的出現(xiàn)讓很多這個(gè)行業(yè)的老人困惑:“似乎原理上沒(méi)有任何創(chuàng)新,為何能力出現(xiàn)巨大提升呢?”“涌現(xiàn)這個(gè)詞本身就是個(gè)模棱兩可的詞,我并不知道具體的細(xì)節(jié),那就是偽科學(xué)。”“ChatGPT 具備的推理能力不過(guò)是另一種歸納,永遠(yuǎn)無(wú)法替代演繹”。

還原論的思想講究從底層到高層的逐漸構(gòu)建,每行代碼都有清晰的含義,這樣寫出來(lái)的系統(tǒng)才叫系統(tǒng),但進(jìn)化論的思想完全不同,進(jìn)化論需要構(gòu)建一個(gè)萬(wàn)能生成器,然后建立一個(gè)淘汰機(jī)制,對(duì)萬(wàn)能生成器生成的各種可能進(jìn)行篩選淘汰,這樣進(jìn)化出來(lái)的系統(tǒng),就能很好的完成任務(wù),至于里面形成的微結(jié)構(gòu),那并不是重點(diǎn),甚至都無(wú)法用簡(jiǎn)單的語(yǔ)言描述,因?yàn)楸旧砭褪侨止餐鹱饔玫摹?/p>

所謂上下文推理,不過(guò)就是給定前文,準(zhǔn)確給出后文的能力,這其實(shí)就是語(yǔ)言模型預(yù)訓(xùn)練時(shí)候就在做的事情,為了能做到這點(diǎn),在訓(xùn)練的過(guò)程中,各種有助于提高預(yù)測(cè)能力的高層能力,都會(huì)自然而然的進(jìn)化出來(lái),所謂的高層能力,不過(guò)是一種函數(shù),而神經(jīng)網(wǎng)絡(luò)本身可以擬合一切函數(shù),同時(shí)隨機(jī)梯度下降,又讓神經(jīng)網(wǎng)絡(luò)具備了參數(shù)自動(dòng)填充的能力。當(dāng)然,進(jìn)化的過(guò)程中,神經(jīng)網(wǎng)絡(luò)總會(huì)嘗試找到更好的解法,比如死記硬背,但這些解法往往跟我們預(yù)期的解法不一致,這時(shí)候任務(wù)的合理構(gòu)建就很重要了,需要巧妙的設(shè)計(jì),讓我們預(yù)期的解法是神經(jīng)網(wǎng)絡(luò)進(jìn)化的唯一解。

其實(shí)換個(gè)角度想,人為什么有推理能力?人的一切能力也是進(jìn)化而來(lái)的,人的各種生存壓力,配合基因的隨機(jī)突變和大自然的定向篩選,導(dǎo)致推理等能力的出現(xiàn),換句話說(shuō),當(dāng)推理能力的出現(xiàn)有助于人這個(gè)群體生存的時(shí)候,這個(gè)能力就會(huì)出現(xiàn),跟GPT 涌現(xiàn)的各種能力的原理一樣。

不要總拿著還原論思想去看待世界,幾百年前,就出現(xiàn)了進(jìn)化論思想,因?yàn)檫M(jìn)化論思想沒(méi)有寫進(jìn)義務(wù)教育的教材,導(dǎo)致太多人沒(méi)有深刻理解這個(gè)工具。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4765

    瀏覽量

    100568
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3178

    瀏覽量

    48731
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1549

    瀏覽量

    7509

原文標(biāo)題:為什么ChatGPT模型大了就有上下文聯(lián)系能力?

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何評(píng)估 ChatGPT 輸出內(nèi)容的準(zhǔn)確性

    評(píng)估 ChatGPT 輸出內(nèi)容的準(zhǔn)確性是一個(gè)復(fù)雜的過(guò)程,因?yàn)樗婕暗蕉鄠€(gè)因素,包括但不限于數(shù)據(jù)的質(zhì)量和多樣性、模型的訓(xùn)練、上下文的理解、以及輸出內(nèi)容的邏輯一致性。以下是一些評(píng)估 ChatGPT
    的頭像 發(fā)表于 10-25 17:48 ?513次閱讀

    SystemView上下文統(tǒng)計(jì)窗口識(shí)別阻塞原因

    SystemView工具可以記錄嵌入式系統(tǒng)的運(yùn)行時(shí)行為,實(shí)現(xiàn)可視化的深入分析。在新發(fā)布的v3.54版本中,增加了一項(xiàng)新功能:上下文統(tǒng)計(jì)窗口,提供對(duì)任務(wù)運(yùn)行時(shí)統(tǒng)計(jì)信息的深入分析,使用戶能夠徹底檢查每個(gè)任務(wù),幫助開(kāi)發(fā)人員識(shí)別阻塞原因。
    的頭像 發(fā)表于 08-20 11:31 ?392次閱讀

    ChatGPT-4o,國(guó)產(chǎn)大模型竟然更懂翻譯,8款大模型深度測(cè)評(píng)|AI 橫評(píng)

    、速度慢、費(fèi)用高且難以準(zhǔn)確理解上下文”的問(wèn)題。相比之下,AI大模型憑借其強(qiáng)大的學(xué)習(xí)能力和適應(yīng)性,在翻譯質(zhì)量、效率、上下文理解和多語(yǔ)言支持等方面表現(xiàn)出色,提供
    的頭像 發(fā)表于 07-14 08:04 ?128次閱讀
    超<b class='flag-5'>ChatGPT</b>-4o,國(guó)產(chǎn)大<b class='flag-5'>模型</b>竟然更懂翻譯,8款大<b class='flag-5'>模型</b>深度測(cè)評(píng)|AI 橫評(píng)

    鴻蒙Ability Kit(程序框架服務(wù))【應(yīng)用上下文Context】

    [Context]是應(yīng)用中對(duì)象的上下文,其提供應(yīng)用的一些基礎(chǔ)信息,例如resourceManager(資源管理)、applicationInfo(當(dāng)前應(yīng)用信息)、dir(應(yīng)用文件路徑)、area
    的頭像 發(fā)表于 06-06 09:22 ?409次閱讀
    鴻蒙Ability Kit(程序框架服務(wù))【應(yīng)用<b class='flag-5'>上下文</b>Context】

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.34】大語(yǔ)言模型應(yīng)用指南:以ChatGPT為起點(diǎn),從入門到精通的AI實(shí)踐教程

    相當(dāng)于CPU的核心數(shù),而每秒處理的 token數(shù)量則相當(dāng)于 CPU的主頻 ,以Hz為單位。這些參數(shù)決定模型的計(jì)算能力和處理速度。而語(yǔ)言模型上下文
    發(fā)表于 06-03 11:39

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來(lái)了

    當(dāng)?shù)貢r(shí)間5月13日OpenAI推出ChatGPT-4o,代表人工智能向前邁出的一大步。在GPT-4turbo的強(qiáng)大基礎(chǔ)上,這種迭代擁有顯著的改進(jìn)。在發(fā)布會(huì)的演示中,OpenAI展示該模型的高級(jí)
    發(fā)表于 05-27 15:43

    編寫一個(gè)任務(wù)調(diào)度程序,在上下文切換后遇到了一些問(wèn)題求解

    大家好, 我正在編寫一個(gè)任務(wù)調(diào)度程序,在上下文切換后遇到了一些問(wèn)題。 為下一個(gè)任務(wù)恢復(fù)上下文后: __builtin_tricore_mtcr_by_name(\"pcxi\"
    發(fā)表于 05-22 07:50

    OpenAI發(fā)布GPT-4o模型,支持文本、圖像、音頻信息,速度提升一倍,價(jià)格不變

     此外,該模型還具備128K的上下文記憶能力,知識(shí)截止日期設(shè)定為2023年10月。微軟方面也宣布,已通過(guò)Azure OpenAI服務(wù)提供GPT-4o的預(yù)覽版。
    的頭像 發(fā)表于 05-14 17:12 ?826次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    的特征,并且這些特征融合這些詞在當(dāng)前序列的上下文語(yǔ)義,因此能夠解決一詞多義的問(wèn)題。憑借這種優(yōu)勢(shì),基于動(dòng)態(tài)詞向量語(yǔ)言模型進(jìn)行預(yù)訓(xùn)練的方法被廣泛應(yīng)用于自然語(yǔ)言處理任務(wù)中。 經(jīng)典結(jié)構(gòu)
    發(fā)表于 05-05 12:17

    【大語(yǔ)言模型:原理與工程實(shí)踐】揭開(kāi)大語(yǔ)言模型的面紗

    維基百科、網(wǎng)頁(yè)內(nèi)容和書籍等,不僅掌握語(yǔ)言的語(yǔ)法、語(yǔ)義和上下文信息,還能生成結(jié)構(gòu)連貫、語(yǔ)義合理的句子和段落。大語(yǔ)言模型的一個(gè)顯著特點(diǎn)是其龐大的參數(shù)量,已達(dá)數(shù)億甚至數(shù)十億級(jí)別。這種規(guī)模賦予模型
    發(fā)表于 05-04 23:55

    探索ChatGPT模型的人工智能語(yǔ)言模型

    最大的區(qū)別ChatGPT是通過(guò)對(duì)話數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,而不僅僅是通過(guò)單一的句子進(jìn)行預(yù)訓(xùn)練,這使得ChatGPT能夠更好地理解對(duì)話的上下文,并進(jìn)行連貫的回復(fù)。
    發(fā)表于 04-24 10:19 ?648次閱讀
    探索<b class='flag-5'>ChatGPT</b><b class='flag-5'>模型</b>的人工智能語(yǔ)言<b class='flag-5'>模型</b>

    TC397收到EVAL_6EDL7141_TRAP_1SH 3上下文管理EVAL_6EDL7141_TRAP_1SH錯(cuò)誤怎么解決?

    我收到EVAL_6EDL7141_TRAP_1SH 3 類(TIN4-Free 上下文列表下溢)上下文管理EVAL_6EDL7141_TRAP_1SH錯(cuò)誤。 請(qǐng)告訴我解決這個(gè)問(wèn)題的辦法。
    發(fā)表于 03-06 08:00

    請(qǐng)問(wèn)risc-v中斷還需要軟件保存上下文和恢復(fù)嗎?

    risc-v中斷還需要軟件保存上下文和恢復(fù)嗎?
    發(fā)表于 02-26 07:40

    ISR的上下文保存和恢復(fù)是如何完成的?

    函數(shù):ifxCPU_enableInterrupts ();如果我讓更高優(yōu)先級(jí)的 ISR 中斷優(yōu)先級(jí)較低的 ISR,那么 ISR 的上下文保存和恢復(fù)是如何完成的?
    發(fā)表于 01-22 06:28

    鴻蒙原生應(yīng)用/元服務(wù)開(kāi)發(fā)-Stage模型能力接口(三)

    一、說(shuō)明 AbilityLifecycleCallback模塊提供應(yīng)用上下文ApplicationContext的生命周期發(fā)生變化時(shí)觸發(fā)相應(yīng)回調(diào)的能力,包括onAbilityCreate
    發(fā)表于 12-13 10:26