ChatGPT、GPT-4 的迅速“出圈”,讓 OpenAI 一戰成名,外界對這家公司的關注度達到了前所未有的高度。然而,欲戴王冠,必承其重。在如此前沿的技術到來之際,很多人將目光從技術本質的探索延展到道德、風險評估等維度。不久之前,CSDN 也曾報道過,非營利性的 "生命的未來研究所"(Future of Life Institute)發出一封公開信,以 LLM(Large Language Model)模型對社會和人類存在不可控的風險為由,呼吁全球所有的 AI 實驗室都要暫停訓練比 GPT-4 更強大的系統,期限為六個月。包括圖靈獎得主 Yoshua Bengio、伯克利計算機科學教授 Stuart Russell、特斯拉 CEO 埃隆·馬斯克、蘋果聯合創始人 Steve Wozniak 等在內的數千名對人工智能領域關注的學者、企業家、教授都在這封公開信上簽署了自己的姓名。雖然尚未直接點名,但是眾人心中都有數,能以最快速度訓練出比 GPT-4 更強大系統的公司屈指可數,OpenAI 必在榜單的前列。所以這一封信究竟是為了阻止 OpenAI 加速前進的步伐,還是真的擔心 LLM 帶來的弊會大于利,在業界尚未有統一的判定之前,因為這封信引發的輿論再次發酵,形成了兩派:
- 一派,認為 “具有人類競爭智能的人工智能系統會對社會和人類構成深刻的風險”,甚至又有非營利機構要求美國政府部門聯邦貿易委員會 FTC 出面調查 OpenAI,阻止 GPT-4 的商用;
- 另一派則認可 LLM 對社會帶來的真實改進和幫助,不能因部分人的顧慮而停止整個技術行業的發展。
那么,在兩派的爭論中,最終 LLM 的研發將何去何從?原本計劃將在今年下半年推出的 GPT-5 是否會如期?LLM 帶來的真實風險又有哪些?
支持派:停止訓練比 GPT-4 更強的模型
“只有當我們確信它們的影響是積極的并且它們的風險是可控的時候,才應該開發強大的人工智能系統。因此,我們呼吁所有 AI 實驗室立即暫停訓練比 GPT-4 更強大的 AI 系統,至少 6 個月。這種暫停應該是公開的和可驗證的,并且包括所有關鍵參與者。如果不能迅速實施這種暫停,政府應介入并暫停“,公開信寫道。同時,其指出,「人工智能實驗室和獨立專家應利用這次暫停期,共同制定和實施一套先進的人工智能設計和開發的共享安全協議,并由獨立的外部專家進行嚴格的審計和監督」。當然,信中也澄清說,“這并不意味著總體上暫停 AI 開發,只是從越來越大且不可預測的黑盒模型的危險競賽中退后一步?!?/span>與此同時,據外媒 vice 報道,本次公開信發起者、圖靈獎得主 Yoshua Bengio 表示,“民主價值觀與這些工具的開發方式之間存在沖突”。麻省理工學院 NSF AI 人工智能與基礎交互研究所(IAIFI)物理學教授、未來生命研究所所長 Max Tegmark 認為,任由 AI 大模型繼續訓練下去,最壞的情況是人類將逐漸失去對文明越來越多的控制權。他表示,當前的風險是“我們失去了對科技公司中一群未經選舉的人的控制,他們獲得了巨大的影響力。”事實上,微軟、Google 等大型科技公司之間早已拉起 AI 軍備競賽,他們在過去的一年里發布了很多新的人工智能產品。
不過,這種頻繁的發布節奏引起了公憤。繼公開信之后,就在昨日,另一家非營利性研究機構人工智能和數字政策中心(Center for AI and Digital Policy,CAIDP)將狀告到了美國政府部門。他們要求聯邦貿易委員會(簡稱 FTC)調查 OpenAI,聲稱這家新貴公司發布了 GPT-4,違反了商業法,同時他們認為該產品具有欺騙性并將人們置于危險之中。CAIDP 表示,"FTC 已經宣布,人工智能的使用應該是'透明的、可解釋的、公平的、有經驗的,同時促進問責制',不過 OpenAI 推出了一個有偏見、有欺騙性、對隱私和公共安全有風險的產品?,F在是 FTC 采取行動的時候了?!?/span>他們還批評了 OpenAI 在其模型和訓練數據方面沒有實現透明。CAIDP 也敦促 FTC 對 OpenAI 展開調查,要求禁止 OpenAI 所有基于 GPT 產品的進一步商業部署,對其技術進行獨立評估,并確保其符合聯邦貿易委員會的規則,才能重新上市。反對派:不能停止未來 GPT-5 以及更強模型的訓練
雖然 OpenAI 自身也承認 GPT-4 并不完美,仍然會對事實驗證的問題產生錯亂感,也會犯一些推理錯誤,還偶爾過度自信,甚至連 OpenAI CEO Sam Altman 在接受外媒采訪時也曾表示過,公司對人工智能的潛力感到“有點害怕”。不過,Sam Altman 表示,這是“好事”,人工智能可能會取代許多工作,但它也可能會帶來“更好的工作”。而對于這封公開信的呼吁,諸多 AI 專家持反對意見。前谷歌大腦成員、在線教育平臺 Coursera 創始人吳恩達連發四條推文,強烈反對「暫停計劃」。他表示:呼吁在 6 個月內暫停訓練比 GPT-4 更強的模型是一個可怕的想法。我在教育、醫療、食品......方面看到了許多新的應用,這將幫助許多人。改進 GPT-4 將是有實質價值的。讓我們平衡一下人工智能正在創造的巨大價值與現實的風險。除非政府介入,否則沒有現實的方法來實施暫停令,阻止所有團隊擴大 LLM 的規模。不過,讓政府來暫停他們不了解的新興技術是反競爭的,樹立了一個可怕的先例,是糟糕的創新政策。
負責任的人工智固然重要,不過,人工智能也有風險。媒體普遍認為,人工智能公司正在瘋狂地輸出不安全的代碼,這不是事實。絕大多數(可悲的是,不是所有)人工智能團隊都在認真對待負責任的人工智能和安全研究。6 個月的暫停期并不是一個實用的建議。為了促進人工智能的安全,圍繞透明度和審計的法規將更加實用,并產生更大的影響。在推動技術發展的同時,讓我們也對安全進行更多的投資,而不是扼殺進步。也有人工智能專家批評這封信進一步推動了“人工智能炒作”周期,而不是直接列出或呼吁針對當今 LLM 存在的風險采取具體的行動。華盛頓大學語言學系教授、公開信中引用的第一篇論文的共同作者 Emily M. Bender 在推特上表示,「這封公開信 "摻雜了#Aihype"」,信中濫用了她的研究。公開信指出,"正如大量研究表明的那樣,具有人類競爭智能的人工智能系統會對社會和人類構成深刻的風險。"不過,Bender 反駁說,"我們在 2020 年底寫了一篇論文(《隨機鸚鵡》,2021年發表),指出這種不考慮風險就一頭扎進越來越大的語言模型的做法是一件壞事。但風險和危害從來都不是關于'太強大的人工智能'本身,相反:它們是關于權力集中在人的手中,關于壓迫制度的再現,關于對信息生態系統的損害,以及關于對自然生態系統的損害(通過對能源資源的暴殄天物)。"
Hugging Face 的研究科學家兼氣候負責人 Sasha Luccioni 表示,“這(公開信)本質上是誤導:讓每個人都注意到 LLM 的假設權力和危害,并提出一種(非常模糊和無效的)解決方法,而不是此時此地正確看待風險并嘗試解決這些問題——例如,在 LLM 出現時,可以要求相關企業對 LLM 的訓練數據和能力實行更高的透明度,或有關何時何地可以使用它們進行立法。”
GPT-4 以及后續更強的大模型為何成為眾矢之的?
截至目前,OpenAI 聯合創始人 Greg Brockman 倒是發了幾條推文,聲明了 GPT-4 模型的進步與立場。他表示,”在現實世界的對抗壓力下部署 GPT-4 是對實際 AI 對齊的一次偉大實踐。雖然剛剛開始,但我們對迄今為止所取得的一致程度備受鼓舞(以及我們為改善問題而不斷成熟的工程流程)。“Greg Brockman 說,可以通過一個例子觀察到,模型在如此廣泛的棘手或對抗性話題中的良好行為,大部分來自于模型已經概括了人類導師的概念,即成為一個有幫助的人工智能助手。「在 GPT-3 中,它沒有辦法控制模型的行為。現在,我們選擇一組問題(例如,模型在錯誤的答案上頻率非常高——這曾經是一個巨大的問題),可以建立評估,收集數據,每周重新訓練模型,并進行部署。任何人都可以測試我們是否已經改進。但是對齊 GPT-4 只是其中一個環節,而不是終點。這已經實現了很大的進步(與早期對 GPT-3 的抱怨相比),但需要進一步擴展到人類甚至無法判斷輸出的問題?!?/span>其實,在 OpenAI 官方博客上,該公司也一直強調,AI 需要對齊,「對齊研究旨在使人工智能(AGI)與人類價值觀保持一致并遵循人類意圖」。不過,OpenAI 的發聲并未獲得一些激進派的認可,而 OpenAI 之所以深陷輿論漩渦,或有兩方面的原因:一是 LLM 技術發展速度超出了很多人的意料,其中相關的法律法規、道德與使用等規范制度還存在很大的缺失。正如早些時候,Deepmind 研究團隊在借鑒了計算機科學、語言學和社會科學的多學科文獻基礎上發布的《語言模型危害的倫理和社會風險》論文中寫道的那樣,LM 會存在歧視、仇恨言論和排斥;信息泄露;虛假信息;惡意使用;人機交互;環境和社會經濟等多重危害。因此,如何降低這些潛在危害,作為行業領頭羊的 OpenAI 必須要弄清楚,因為它的很多動作也是后來者參考的目標。然而,現實來看,這也并不是 OpenAI 公司一家所需要考慮的事情,而是需要 AI 的所有參與者共同來制定。二是 OpenAI 樹大招風,尤其是 GPT-4 不透明性引發了很多人的不滿。自 ChatGPT、GPT-4 發布以來,已經很多人批評過「OpenAI 不再 Open」了。不久前,Nomic AI 信息設計副總裁 Ben Schmidt 在推特上直指,OpenAI 在發布 GPT-4 技術的 98 頁論文中,絲毫沒有提及關于訓練集內容的任何信息。也有網友稱,OpenAI 正在”假裝“開放。不過,對于 LLM 究竟是應該開源還是閉源,又是一個引發爭議的問題。針對這一點,據外媒 The Verge 報道,OpenAI 首席科學家、聯合創始人 Ilya Sutskever 在接受采訪時也曾回應過,「OpenAI 不分享關于 GPT-4 的更多信息的原因是“不言而喻的”——害怕競爭和對安全的擔憂。」Sutskever 表示,“在競爭格局方面--外面的競爭很激烈。GPT-4 的開發并不容易。幾乎 OpenAI 的所有人在一起花了很長時間才做出了這個東西,而且(目前)有很多很多公司都想做同樣的事情。安全方面,我想說,還沒有競爭方面那么突出。但它將會改變,基本上是這樣的。這些模型非常強大,而且會變得越來越強大。在某種程度上,如果有人想的話,很容易用這些模型造成很大的傷害。隨著(模型)能力的增強,你不想透露它們是有道理的?!?/span>雖然從商業的角度,OpenAI 不公開大模型架構(包括模型大小)、硬件、訓練計算、數據集構建、訓練方法等細節合乎情理,但是也有人表示,不公開訓練數據,很難知道該系統可以在哪里安全使用并提出修復方案,不利于大模型的研究。為此,你是否支持暫停更強大模型的訓練?你認為大模型是開源好,還是閉源好?歡迎留言分享你的看法。參考資料:https://cdn.arstechnica.net/wp-content/uploads/2023/03/CAIDP-FTC-Complaint-OpenAI-GPT-033023.pdfhttps://futureoflife.org/open-letter/pause-giant-ai-experiments/https://www.vice.com/en/article/qjvppm/the-open-letter-to-stop-dangerous-ai-race-is-a-huge-messhttps://www.theverge.com/2023/3/15/23640180/openai-gpt-4-launch-closed-research-ilya-sutskever-interview
-
imagination
+關注
關注
1文章
570瀏覽量
61280
原文標題:GPT-4 遭投訴要求禁用,OpenAI 為何成為眾矢之的?
文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論