據英國天空新聞等多家媒體3月14日消息,著名物理學家史蒂芬 · 霍金(Stephen Hawking)去世,享年76歲。
霍金教授的孩子Lucy、Robert 和 Tim在一份聲明中說:
我們親愛的父親今天去世了,我們深感痛心。
他是一位偉大的科學家,也是一位非凡的人,他的工作和成就將會留存多年。
他的勇敢和堅韌,他的才華和幽默激勵了全世界的人們。
他曾經說過,“如果宇宙不是你所愛的人的家園,它就不是宇宙?!?/p>
我們將永遠想念他。
斯蒂芬 · 威廉 · 霍金 (Stephen William Hawking),1942 年 1 月 8 日出生于英國牛津,是現代最偉大的物理學家和宇宙學家之一、20 世紀享有國際盛譽的偉人之一。
霍金近幾年對人工智能十分關注,多次發表對人工智能發展的看法。他認為,人類需警惕人工智能的發展威脅,因為人工智能一旦脫離束縛,以不斷加速的狀態重新設計自身,人類將無法與之競爭,從而被取代。
霍金多次敬告世人,關注人工智能的深遠影響:“強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。對于好壞我們仍無法確定,現在人類只能竭盡所能,確保其未來發展對人類和環境有利,人類別無選擇?!?/p>
霍金的孩子露西、羅伯特和蒂姆在一份聲明中說:“我們深表遺憾,我們深愛的父親今天去世了。
對于其他科學家和朋友來說,霍金的直覺和幽默感,以及他殘破的身體和合成聲音一樣多,象征著人類心靈的無限可能。
不僅如此,他也積極參與到各項活動中。2017年1月初,在名為Benificial AI 2017的會議上,近2000名產學研領袖和中堅力量共同聯名發布“AI 23 條原則”,從研究問題、倫理價值觀和長期問題三個角度宏觀地為AI發展提出規定。聯名者包括:Demis Hassabis,Ilya Sutskeve,Yann LeCun, Yoshua Bengio 以及馬斯克等等?;艚鹨苍谄渲?。面對AI 可能會被誤用和威脅人類的擔憂,這 23 條原則被期待能確保AI走在“正軌”,以獲得更加健康的發展。
霍金在2017年初簽署的這23條原則,分為研究問題、倫理價值觀和長期問題三個部分,以確保人人都能從人工智能中受益,同時保證AI研究和發展的正確方向。
人工智能已經為世界各地人的日常生活提供了有益的工具。人工智能技術應該在以下原則的指導下繼續發展,將為未來幾十年到幾個世紀的人給予巨大的幫助和力量。
研究問題
1)研究目標:人工智能研究的目標應該是創造有益的智能,而不是讓它像經歷生物演化一樣沒有確定的發展方向。
2)研究資金:投資人工智能應該附帶確保該研究是用于發展有益的人工智能,包括計算機科學、經濟學、法律、倫理和社會研究中的棘手問題,例如:
我們如何使未來的AI系統具有高度魯棒性,這樣才能夠讓它們在沒有故障或被黑客入侵的情況下做我們想要它們做的事情?
我們如何通過自動化實現繁榮,同時不打破資源和目的的平衡?
我們如何更新法律制度實現更大的公平和更高的效率,跟上AI的發展步伐,管控與AI相關的風險?
AI應該具有怎樣的價值觀,應該具有何等法律和倫理地位?
3)科學政策互聯:AI研究人員和政策制定者之間應該進行有建設意義、健康的交流。
4)研究文化:應該在AI研究者和開發者中培養合作、信任和透明的文化。
5)避免競賽(Race Avoidance):開發AI系統的團隊應積極合作,避免在安全標準方面進行削減。
倫理和價值觀
6)安全:AI系統應該在整個使用周期內安全可靠,并在可行性和可用性方面有可驗證的衡量標準。
7)故障透明度(Failure Transparency):如果AI系統造成傷害,應該可以確定原因。
8)司法透明度:任何涉及司法決策的自主系統都應對其判斷提供合理的解釋,并由主管人權機構審核。
9)責任:先進人工智能系統的設計師和建設者是使用、濫用這些系統以及這些系統行動造成的道德影響的利益相關者,他們有責任和機會塑造這些影響。
10)價值觀一致性:在設計高度自治的人工智能系統時,應該確保它們的目標和行為在整個操作過程中與人類的價值觀相一致。
11)人類價值觀:人工智能系統的設計和運行應與人類尊嚴、權利、自由和文化多樣性的理念相一致。
12)個人隱私:由于AI系統能夠分析和利用人類產生的數據,人類也應該有權獲取、管理和控制自身產生的數據。
13)自由和隱私:AI 應用個人數據,其結果不能不合理地限制人類真實或感知到的自由。
14)共享利益:人工智能技術應當惠及和增強盡可能多的人。
15)共享繁榮:人工智能創造的經濟繁榮應該廣泛共享,為全人類造福。
16)人類控制:應該由人類選擇如何以及是否委托人工智能系統去完成人類選擇的目標。
17)非顛覆(Non-subversion):要控制先進的人工智能系統所帶來的力量,應當尊重和改善社會健康發展所需的社會和公民進程,而不是顛覆這種進程。
18)AI 軍備競賽:應該避免在致命的自動武器開發方面形成軍備競賽。
長期問題
19)能力注意(Capability Caution):在沒有共識的情況下,應該避免對未來AI能力上限做出較為肯定的假設。
20)重要性:先進AI可能代表了地球上生命發展歷史的一大深刻變化,應該通過相應的關懷和資源對其進行規劃和管理。
21)風險:人工智能系統帶來的風險,特別是災難性或有關人類存亡的風險,必須遵守與其預期影響相稱的規劃和緩解措施。
22)不斷自我完善(Recursive Self-Improvement):對于那些不斷自我完善或通過自我復制以能夠快速提高質量或數量的AI系統,必須采取嚴格的安全和控制措施。
23)共同利益:超級智慧只應該為廣泛共享的倫理理想服務,為了全人類而不是一個國家或組織的利益而發展。
今天,也是愛因斯坦的誕辰。
歷史如此巧合。這兩位偉大的科學家已經離我們而去,但人類對宇宙、人工智能的探索永無止境。讓我們以這樣的方式來紀念他們。
-
AI
+關注
關注
87文章
30146瀏覽量
268411 -
人工智能
+關注
關注
1791文章
46858瀏覽量
237552 -
霍金
+關注
關注
0文章
40瀏覽量
10487
原文標題:【巨星隕落】霍金今日去世,但人類對宇宙和AI的探索永無止境
文章出處:【微信號:sdwlwxh,微信公眾號:山東省物聯網協會】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論