人工智能(AI)和超級智能機(jī)器是人類可能發(fā)生的最好還是最壞的事情?自1940年代以來,這一直是一個問題,當(dāng)時計算機(jī)科學(xué)家艾倫·圖靈(Alan Turing)想知道并開始相信,有時機(jī)器可以通過模仿進(jìn)化的過程對人類產(chǎn)生無限影響。
人工智能(AI)對人類構(gòu)成威脅嗎?
ADOBE STOCK
牛津大學(xué)教授尼克·博斯特羅姆(Nick Bostrom)的《紐約時報》暢銷書《超級情報:道路,危險,策略》于2014年首次出版時,它聚焦于所有可能出錯的地方,引起了這場辯論的緊張。但是,在我最近與Bostrom的對話中,他還承認(rèn)人工智能技術(shù)具有巨大的發(fā)展?jié)摿Α?/p>
您可以在此處查看我們對話的完整視頻:
今天在:創(chuàng)新undefined
自Bostrom在2014年撰寫這本書以來,人工智能以及機(jī)器和深度學(xué)習(xí)的進(jìn)步非常迅速。人工智能已經(jīng)成為公眾討論的話題,大多數(shù)政府都制定了一些解決人工智能的戰(zhàn)略或路線圖。在他的書中,他談到AI有點像孩子們玩的炸彈,隨時可能爆炸。
博斯特倫解釋說:“就我們的智慧而言,我們的成熟水平,我們作為一個物種進(jìn)行合作的能力,另一方面我們利用技術(shù)來改變世界的工具能力之間存在著不匹配。就像我們變得比睿智變得更快更強(qiáng)大。”
沒有后悔嗎?:我希望我在大學(xué)里遵循的建議
各種各樣令人興奮的AI工具和應(yīng)用程序開始以多種方式影響經(jīng)濟(jì)。這些不應(yīng)被假設(shè)的未來點的過度宣傳所掩蓋,在該點上,您獲得的AI具有與人類以及超智能機(jī)器相同的一般學(xué)習(xí)和計劃能力。這是需要注意的兩個不同的上下文。
如今,迫在眉睫的威脅不是來自超級智能,而是目前使用的有用的(但有潛在危險)應(yīng)用程序AI。
人工智能有多危險?
如果我們專注于當(dāng)今AI可能帶來的影響,那么以下是我們應(yīng)該考慮并計劃的人工智能潛在的負(fù)面影響:
改變?nèi)祟愐龅墓ぷ?工作自動化:人工智能將改變?nèi)祟惖墓ぷ鲌鏊凸ぷ鳌H斯ぶ悄芗夹g(shù)將失去一些工作,因此人類將需要適應(yīng)變化并尋找新的活動,以為其提供工作所帶來的社會和精神利益。
政治,法律和社會方面的后果:正如Bostrom所建議的那樣,與其避免追求AI創(chuàng)新,不如說:“我們的重點應(yīng)該放在使自己處于最佳位置,以便在所有方面都做好準(zhǔn)備時,我們就做好了功課。我們“已經(jīng)開發(fā)了可擴(kuò)展的AI控制方法,我們對道德和政府等問題進(jìn)行了認(rèn)真的思考。然后進(jìn)一步進(jìn)行研究,希望由此產(chǎn)生非常好的結(jié)果。”如果我們的政府和商業(yè)機(jī)構(gòu)現(xiàn)在不花時間制定規(guī)則,法規(guī)和職責(zé),那么隨著AI的不斷成熟,可能會產(chǎn)生重大的負(fù)面影響。
人工智能引發(fā)的恐怖主義:人工智能將改變自動無人駕駛飛機(jī),機(jī)器人群以及遠(yuǎn)程和納米機(jī)器人攻擊的戰(zhàn)斗方式。除了關(guān)注核軍備競賽之外,我們還需要監(jiān)視全球自動武器競賽。
社交操縱和AI偏見:到目前為止,AI仍然有被制造它的人偏見的風(fēng)險。如果訓(xùn)練AI的數(shù)據(jù)集存在偏差,則該偏差將影響AI動作。與2016年美國總統(tǒng)大選時一樣,如果使用不當(dāng),人工智能可能會被用于社會操縱和擴(kuò)大錯誤信息。
人工智能監(jiān)視:人工智能的面部識別功能為我們提供了便利,例如能夠解鎖手機(jī)并無需鑰匙即可進(jìn)入建筑物,但它也啟動了許多公民自由組織認(rèn)為令人震驚的對公眾的監(jiān)視。在中國和其他國家/地區(qū),警察和政府通過使用面部識別技術(shù)來侵犯公共隱私。博斯特羅姆解釋說,人工智能從監(jiān)視數(shù)據(jù),攝像機(jī)和采礦社交網(wǎng)絡(luò)通信中監(jiān)視全球信息系統(tǒng)的能力無論好壞都有很大的潛力。
Deepfakes:AI技術(shù)使創(chuàng)建真實人物的“假”視頻變得非常容易。可以在未經(jīng)個人許可的情況下使用這些信息來傳播假新聞,以實際上不參與其中的人的身份制造色情內(nèi)容,并且不僅損害個人聲譽(yù),而且損害人們的生計。該技術(shù)變得越來越好,人們被它欺騙的可能性很高。
正如尼克·博斯特倫(Nick Bostrom)解釋的那樣,“最大的威脅是長期問題,引入了一些超級智能的根本方法,無法使其與人類價值觀和意圖保持一致。這是一個很大的技術(shù)問題。在解決安全和對準(zhǔn)問題之前,我們已經(jīng)成功解決了能力問題。”
如今,尼克將自己描述為“可怕的樂觀主義者”,他對AI如果我們能做到正確就可以做什么感到非常興奮。他說:“近期的影響是壓倒性的。長期影響更多是一個懸而未決的問題,很難預(yù)測。如果我們做功課,并且在我們可以利用的任何時間里,我們越能成為一個世界和一個物種,我們在一起做的事情越多,我們?yōu)榇俗龊玫臏?zhǔn)備就越多,獲得有利結(jié)果的幾率就越大。在那種情況下,這可能是非常有利的。”
-
人工智能
+關(guān)注
關(guān)注
1791文章
46853瀏覽量
237551 -
計算機(jī)科學(xué)
+關(guān)注
關(guān)注
1文章
142瀏覽量
11357 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1205瀏覽量
24641
發(fā)布評論請先 登錄
相關(guān)推薦
評論