電子發燒友網報道(文/李彎彎)ChatGPT在持續受到追捧一段時間之后,其可能帶來的風險也引發熱議。前不久,生命未來研究所(Future of Life)向全社會發布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統的訓練,暫停時間至少為6個月。
信中寫道“只有在我們確信它們的效果是積極的,風險是可控的情況下,才應該開發強大的人工智能系統。”馬斯克此前曾多次表達對人工智能的擔憂,認為人工智能是未來人類文明最大的風險之一,威脅程度遠高于車禍、飛機失事、毒品泛濫等甚至比核武器都危險得多。
截至目前,馬斯克、蘋果聯合創始人Steve Wozniak、Stability AI創始人Emad Mostaque等上千名科技大佬和AI專家已經簽署公開信。
多國政府和企業調查和限制使用ChatGPT
之后,多國政府和企業開始調查或采取措施限制使用該軟件。今年3月31日,意大利個人數據保護局宣布,從即日起禁止使用聊天機器人ChatGPT,并限制開發這一平臺的OpenAI公司處理意大利用戶信息。同時個人數據保護局開始立案調查。
個人數據保護局認為,3月20日ChatGPT平臺出現了用戶對話數據和付款服務支付信息丟失情況。此外平臺沒有就收集處理用戶信息進行告知,缺乏大量收集和存儲個人信息的法律依據。
OpenAI公司必須在20天內通過其在歐洲的代表,向意大利個人數據保護局通報公司執行保護局要求而采取的措施,否則將被處以最高2000萬歐元或公司全球年營業額4%的罰款。
4月3日,德國聯邦數據保護專員發言人稱,出于數據保護方面的考慮,暫時禁止在德國使用ChatGPT原則上是可能的。該發言人稱,禁止使用該軟件的動作將屬于德國聯邦數據保護機構的職權范圍。
4日,加拿大聯邦隱私監管機構宣布,已經對開發ChatGPT的美國公司OpenAI展開調查,因為該公司涉嫌“未經同意收集、使用和披露個人信息”。
美國總統拜登及其科技顧問委員會在4日舉行的會議上也討論了人工智能的“風險和機遇”。英國信息專員辦公室也已經向科技公司發出警告,不要使用個人信息來開發聊天機器人。英國信息專員辦公室技術和創新總監阿爾蒙德表示,類似ChatGPT的生成式人工智能“如果被不負責任地使用,有可能對數據隱私構成風險”。
周鴻祎:現在擔心風險為時尚早
不過也有專家學者對暫停更大模型的訓練,及對使用ChatGPT采取限制措施等持反對態度。日前,Meta公司的首席技術官安德魯·博斯沃思表示,馬克·扎克伯格現在把大部分的時間都用在AI上,他還表示,馬斯克等人呼吁暫停AI研發的建議是“不切實際的”。
今年2月,Mate宣布成立一個新的團隊來研發AIGC技術,現在他們首次透露了該技術商業化的時間表,ChatGPT的創建者OpenAI已經將這項即時創建句子和圖形的技術商業化了。博斯沃思認為,Mate的AI技術可以通過告訴廣告商使用什么工具來制作廣告來提高效果。
對于暫停研究一事,中國人民大學教授劉永謀也發文稱,ChatGPT對社會生產力的推動作用已經昭然若揭,不應因噎廢食而是控制利用。暫停ChatGPT研發的想法簡單粗暴,作用不大,也實現不了。他認為,現在的問題是根據國情落實AI治理措施,而不是暫停ChatGPT研發。
360創始人周鴻祎認為,這不影響中國發展自己的大語言模型,包括360在內的一些中國公司已經展示了自己的作品,實事求是來說,離GPT-4的水平還有兩年差距。現在擔心風險為時尚早。周鴻祎稱,“我自己做的是安全的,我堅定地認為,不發展才是最大的不安全。”
早些時候,微軟聯合創始人比爾蓋茨也發表評論稱,呼吁暫停AI研發不會“解決”未來的挑戰。他表示,應該把注意力放在如何最好地利用AI的發展方面,AI研究工作的暫停會很復雜,難以執行。蓋茨一直看好AI,將其描述為可與互聯網或移動電話相媲美的革命性技術成果。
小結
在過去這段時間,人們都見識到了ChatGPT的強大。這種大型語言模型除了將會給人們的生產生活帶來便利之外,同時也會造成很多失業的情況。而且OpenAI還在持續訓練更強大的模型,它未來可能給人類帶來的風險確實需要警惕。不過正所謂因噎廢食不可取,如何在持續研究AI大模型的同時,避免其帶來的風險,讓它能夠更好為人類的美好生活服務是關鍵。
-
ChatGPT
+關注
關注
29文章
1548瀏覽量
7487
發布評論請先 登錄
相關推薦
評論