人工智能技術的飛速發展,將有機會重新定義未來人類工作的意義以及財富的創造方式,帶來前所未有的經濟重塑,甚至改變全球的權力格局。正因如此,全球各地的經濟體都在致力于制定相應的戰略計劃,以期在人工智能賽道的競爭占據優勢。
當地時間 1 月 24 日晚,美國《連線》(Wired)雜志總編 Nicolas Thompson 在達沃斯世界經濟論期間主持了一場圍繞「為人工智能競賽制定規則」的主題探討,創新工場董事長兼 CEO 李開復、印度國家發展改革研究院(NITI Aayog)CEO Amitabh Kant、紐約大學斯特恩商學院助理教授 Amy Webb、西門子主席監事會主席 Jim Hagemann Snabe以及對沖基金 Tow Sigma 聯合創始人 David Siegel五位來自產學界前沿人士參與了這場激烈的討論,分享了各自關于如何為人工智能制定規則、如何看待人工智能時代數據安全等問題的觀點。
▌如何為人工智能制定規則?
李開復:當技術的出現帶來一些問題時,我們需要制定相應的規則。
眼下人工智能技術曾經發生的一些問題基本屬于意外或是某些公司的失誤。人們在很大程度上對人工智能擁有誤解,存在偏執和炒作現象,我們應該去看看人工智能的實際價值。
當我們在談論人工智能時,其實談論的是機器學習、深度學習,它本質上只是一個幫助人類的工具,出現問題的根源往往來是人為的錯誤。
在某種意義上,規則已經存在了——人工智能技術應用于銀行,就有了新的銀行規則;人工智能技術應用于車輛,就有了新的交通規則。在這里,數據規則是其中的核心。
在是否需要制定規則、制定什么樣的規則問題上,不同的國家和文化對此有不同的看法。我希望世界經濟論壇與 AI 委員會能夠幫助大家分享想法,讓更多的公司和國家直接進行溝通與對話,減少對彼此的誤解。
創新工場董事長兼 CEO 李開復
Amy Webb:目前,全世界有 9 家公司正在掌控人工智能的未來,其中 6 家來自美國,即 GMAFIA,也就是谷歌、微軟、亞馬遜、Facebook、IBM、蘋果,3 家來自中國,分別為百度、騰訊、阿里巴巴。我們應該關注這些巨型企業的動向,因為他們不僅僅編寫軟件,也在構建框架,甚至是消費者行為等方面都擁有話語權。
這里的挑戰其實在于,能夠代表我們去制定人工智能未來規則的人只是少數,其實我們都將受到人工智能影響力的輻射,幾乎每一個消費者都會在某一個時間點接觸到上面提到的幾家公司。
紐約大學斯特恩商學院助理教授 Amy Webb
David Siegel:今天,人工智能只是在計算機中運行的一行行代碼,我們其實很難區分人工智能軟件和常規軟件的區別。制定規則的重點在于,如何處理軟件和大數據的交叉部分。在我看來,最重要的問題其實都集中在數據上面。
對沖基金 Tow Sigma 聯合創始人 David Siegel
Jim Hagemann Snabe:人工智能是最具影響力的技術之一,我們必須給予其足夠程度的關注。但我認為,現在我們在人工智能的應用上并不是很聰明,現在是時候利用這項技術來解決一些更為重要的問題了。
對我來說,制定規則的重點在于對數據的訪問以及如何以開放的方式利用平臺。如果我們不允許人們平等地訪問數據和平臺,那么未來將面臨很嚴峻的問題。
西門子主席監事會主席 Jim Hagemann Snabe
Amitabh Kant:在印度,人工智能技術和數據都是政府公有的,在我看來,印度所面臨的挑戰與西方世界截然不同。
我們相信人工智能會改變人類的生活,我們的關注的重點是,如何通過人工智能技術最大程度挖掘數據的價值,以科學的方式來改變公民的生活,例如向醫生提供更好的圖像數據,幫助學生提高學習效果、在農業衛生等領域發揮作用等。
印度國家發展改革研究院(NITI Aayog)CEO Amitabh Kant
▌如何面對人工智能時代數據安全和倫理問題?
Amy Webb:現在用來訓練算法的數據通常都來自幾個相同的數據集,這些系統會對我們的生活做出決策。大多數人是不知道他們的數據是如何被系統收集并商業化的。我們所邁向的未來里,可能會有一到兩個組織持有我們的個人數據。
人們對人工智能的探討將是一場長達數年的旅程,挑戰在于我們無法推遲這件事的發生。我們現在能做的,就是把自己掌握的信息反饋給各自的組織機構,并努力推進自己對這些問題的思考。
David Siegel:可以先看看我們正在使用的舊規則。在談到人工智能的工作方式時,人們可能會對計算機自動做出決策而感到不舒服。但事實上,計算機已經在很長一段時間里在做這樣的事情了,例如,飛機在大部分時間里都是由機器接管的。
人工智能的發展進程要比大多數人想象的要慢,這不意味著我們不會取得進展,但我認為我們不可能在有生之年進入機器完全接管的恐怖狀態。
Hagemann Snabe:我很擔心人們對于人工智能技術的想法過于天真。在使用人工智能技術并將其用于某些極端情況時,訪問個人數據和保護隱私安全之間的界限在哪里?在構建平臺的同時避免壟斷,如何實現?算法開始自主學習,相應地人類就要失去控制權,如何平衡?
我們需要了解數據的使用方式以及被用在哪里。消費者必須擁有對他們的個人數據處理、選擇的權利,這是一個基本原則。在這樣的原則之下,我們才會更好地使用這項技術,用人工智能幫助人類提升能力,而非取代人類。
人工智能可以解決世界上的許多問題,西門子愿意共享數據以避免形成壟斷,例如分享西門子在醫療領域數據以改善治療水平。我們沒有理由去做數據壟斷,這會扼殺所有的小型公司。
Amitabh Kant:我們需要規范,但是引入太多的規則會扼殺創新。我們的目標是利用人工智能技術給人們帶來利好且不會帶來威脅,那么建立一個全球聯盟就非常重要,類似于歐洲核子研究組織(CERN)對粒子物理學的存在。通過聯盟從實踐中學習、從彼此身上學習,從而讓人工智能技術變得更好。
數據就像一條公路,你要向公路公開所有的數據。我們相信,所有的數據都應由公共政府持有,這些數據都應被公開,最終的受益者會是消費者。
李開復:人工智能只是一項能夠改善我們生活的工具。之前亞馬遜的人工智能招聘工具曾經曝出性別歧視的情況,其實這些問題是可以通過大型數據集來解決的。可能有人會懷疑人工智能說它存在偏見,但我保證,如果在簡單系統上使用正確的數據集,它的偏見會比人類要小。
在不侵犯個人數據隱私的前提下,共享數據是一件很好的事情,收集到更多的數據將有助于促進人工智能技術的研究與發展。我曾是一名癌癥患者,我愿意將自己的相關數據貢獻給研究人員,相信大多數癌癥幸存者也都是一樣的。
我們需要讓人們知道人工智能可以做什么、不能做什么、在哪里能創造規則,在哪里不能。而不是盲目的對人工智能抱以恐懼或管制的態度。試圖要找到一個普適性的方法并不是、也不可能是最終解決方案,關鍵在于分享彼此的實踐經驗。我很希望一年內,我們將有人愿意分享自己的實踐成果,展開更多具有實質價值和指導方向的對話。
-
人工智能
+關注
關注
1791文章
46868瀏覽量
237592 -
數據安全
+關注
關注
2文章
677瀏覽量
29924
原文標題:達沃斯論壇激辯:如何為人工智能制定規則
文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論