前不久OpenAI決定解散專注于AI的長期風險的“超級對齊”團隊(Superalignment team),現在又突發AGI團隊解散事件。OpenAI的安全政策遭業界質疑。要知道面對越來越強大的AI技術,很多AI企業在安全政策上持續加大投入;但是OpenAI似乎在退步?要知道AI技術如果不加以控制可能會帶來災難性的后果。若缺乏有效的監管與規劃,AGI的進展將面臨更多的不確定性與風險。現在;對于AGI(通用人工智能)OpenAI真的準備好了嗎?世界真的準備好了嗎?
據外媒報道,OpenAI公司正在解散其“AGI籌備”團隊,團隊負責人Miles Brundage離職,OpenAI公司的AGI團隊就OpenAI自身處理日益強大的人工智能技術的能力以及世界管理人工智能技術的準備情況向公司提供建議。
而OpenAI的AGI籌備團隊負責人Miles Brundage在周三通過Substack發布的帖子中宣布了這一消息,Miles Brundage透露已經完成了他在OpenAI的目標。Miles Brundage想要減少偏見;可能會自己成立一家非營利組織,或加入現有的非營利組織,未來將專注于人工智能政策研究和倡導。
事件發生在OpenAI董事會可能計劃將公司重組為營利性企業之際;這就更讓業界擔心其安全性。以前的OpenAI是一個開源公司、非營利組織,但現在OpenAI似乎真的變了,OpenAI正在設法實現利潤最大化。
AI落地實踐的進程中;目前業界多認為在研究、開發和應用人工智能技術時,需要遵循的道德準則和社會價值觀,以確保人工智能的導向正確,如何讓引導AI;使其是受控制的;這是一個大的前提。確保AI的目標是為了讓世界變得更加美好;盡管甚至可以達到比人類更智能的AI系統。技術創新與安全性兼顧的可能性是需要重點考慮的。
-
人工智能
+關注
關注
1791文章
46896瀏覽量
237666 -
Agi
+關注
關注
0文章
77瀏覽量
10194 -
OpenAI
+關注
關注
9文章
1045瀏覽量
6411
發布評論請先 登錄
相關推薦
評論