精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

您好,歡迎來電子發燒友網! ,新用戶?[免費注冊]

您的位置:電子發燒友網>源碼下載>數值算法/人工智能>

人工智能的道德問題

大?。?/span>0.6 MB 人氣: 2017-10-10 需要積分:1
 人工智能演進:道德可以被編程嗎?2016-07-14 23:19
  原文:The Evolution of AICan Morality be Programmed?
  翻譯:@ GawainGao 審校:趙屹華
  責編:周建?。▃houjd@csdn.net)
  人工智能的最新進展明確表明,我們的電腦需要有一個道德準則。不同意?想想看:一輛車開車上路時,一個騎自行車的孩子在它的前面突然轉了個彎。此時車子能轉彎進入逆行車道,撞上另一輛已經在那里的汽車?或者可以轉彎偏離道路,撞上一棵樹?還是繼續向前,撞上那個騎車的孩子?
  每一種解決方案都會產生一個問題:這可能會導致死亡。
  這是一個不幸的情況,但是人們每天都要面對這樣的情況,如果有一個正在受控的自動駕駛汽車,它需要能夠在這樣的情況下作出選擇。這意味著,我們需要弄清楚如何在我們的電腦里編寫道德準則。
  杜克大學計算機科學系教授Vincent Conitzer最近收到未來生命研究所(Future of Life Institute,FLI)的撥款,用以研究如何讓一個高級人工智能作出道德判斷,并據此采取行動。
  創建道德準則
  乍看之下,我們的目標似乎很簡單—只要創建一個符合道德責任行為的AI即可;然而,它遠遠比原先設想的要復雜得多,因為在創建這類AI的過程中,會有數量驚人的因素左右其實現。就如Conitzer的項目中概述的那樣,“道德判斷會受到權利(如隱私)、角色(如家庭)、過去的行為(如許諾)、動機和意圖,以及其他道德相關特征的影響。這些不同的因素尚未在AI系統中建立”。
  這就是Conitzer現在嘗試在做的事。
  在接受Futurism近期的采訪中,Contizer解釋說,雖然公眾可能會關心如何確保流氓AI最終不會泯滅人性,然而就目前(以及接下來一段很長的時間)而言,這種威脅并不存在。因此他的團隊并不關心如何使AI無私、崇拜人性,以預防造成全球性的機器人大災難。相反,他們會在一個更基本的層面上,把重點放在如何確保人工智能系統能夠作出艱難的、更接近道德標準的選擇,像人類的日常決策一樣。
  那么,該怎樣才能讓AI能夠作出一個艱難的道德決定呢?
  Contizer解釋說,為了實現這個目標,他們的團隊將按照以下兩條線開展:讓人們作出道德選擇,從中發現出模式,然后尋求如何將這些模式置入人工智能。他解釋說,“我們目前所做的實際上就是讓人們作出道德決定,或者是讓人們說明在特定的情況下會作出何種決定,然后我們讓機器學著去嘗試定義何為一般的模式并確定在某種程度內我們可以重現這類決定。”
  總之,研究團隊正試圖找出我們作出道德選擇的模式繼而將這類模式轉換成AI系統可以識別的模式。Contizer指出,這本質上都是關于預測人類在特定情況下會作出何種決定的,“如果我們能夠變得非常擅長預測人們在這類道德情況下會作出什么樣的決定,那么,我們可以以計算機程序的形式自行作出這些決定?!?br />   然而,這里面存在一個主要的問題,沒錯,道德是不客觀的 - 它既不是永恒的,也不具有普遍性。
  Contizer通過過去幾十年的發展很好的闡述了這個問題,“如果我們在一百年前做同樣的道德測試,我們會從人們的決定中發現更多的種族歧視、性別歧視,以及各種從現在看來并不是‘好’的事情。同樣,現在,也許我們的道德發展并沒有走到頂點,百余年后人們可能會覺得一些我們現在做的事情是完全不道德的,例如像我們對待動物的方式。因此,不管怎樣,都會有偏見橫亙在當前道德水平的發展過程中?!?br />   當然,上述提到了很多關于道德是多么復雜的問題?!凹兇獾睦髁x,在博弈論中是很容易解決的,但也許你會覺得別人虧欠于你。這是在博弈論文獻中找不到的理論,這樣的東西,我們也想了很多,你怎么能夠使在博弈論中被稱為‘解決方案概念’的理論變得有意義?你又該如何計算這些東西?”
  為了解決這些問題,并幫助正確找出如何把道德功能編寫進人工智能之中,該團隊正在結合來自計算機科學、哲學和心理學的很多方法。“概括地說,這就是我們的項目所要做的事。”Contizer說到。
  但對于那些有知覺的人工智能呢?我們什么時候需要開始擔心他們并討論如何約束他們的行為呢?
  類人智能
  Contizer表示,類人智能(human-like artificial intelligence)在短時間內還不會出現(所以至少在未來數年不會出現像終結者那樣的大災難……) 。
  “最近,已經出現了一些向類人智能系統接近的進展,我認為這里面包括了很多令人驚訝的進步……但我覺得一個‘真正的AI’,應該是相當靈活的,能夠抽象的,并且可以做所有人類可以輕易完成的事情,我認為我們離真正的AI還相當遙遠?!?Contizer說。
  誠然,我們可以設定系統做很多人類可以做的很好的事情,但也有一些過于復雜的事情很難轉換成計算機可以識別和學習(這是所有終極AI的基礎)的模式。
  “早期的人工智能研究,最開始幾十年人工智能研究的,是為智能確定真正基準的一個事實,如能很好地下國際象棋,這對于電腦來說相當容易。編寫并創建一個國際象棋對弈程序是不容易的,但它是可行的。”
  事實上,在今天,計算機在許多比賽中有能力擊敗世界上最好的選手,例如國際象棋和AlphaGo。
  但是Conitzer澄清,事實證明,這類比賽并不是測量類人類智慧的一個完美方法?;蛘咧辽?,在人類思維上,用這種方法還有很多方面無法測量出來,“同時,我們了解到,某些對于人類非常簡單的問題,實際上對于電腦來說相當困難,或者編程讓電腦做某些事情(很困難)。例如,在茫茫人海中找到你的祖母。你可以很容易做到這一點,但是要編寫一個電腦程序讓它同樣做好這件事真的非常的困難?!?br />   從人工智能研究的初期,我們就能夠做到讓計算機識別和鑒定一些指定的圖片。但是,總體來說,要編寫一個可以做人類能做的所有事情的系統,就非常困難了,這就是為什么我們離 “真正的人工智能”還有很長的一段路要走。
  然而,Conitzer聲稱,現在是時候開始考慮管理這種智能所適用的規則了。“這可能還有點遙遠,但對計算機科學家來說,這可能意味著短短幾十年的秩序,提早一點去考慮是很有必要的”,他指出,雖然目前還沒有任何類人機器人出現,但我們的智能系統已經能作出道德選擇,并且這種選擇有可能拯救或結束生命。
  “很多時候,他們做的這些決定會影響到別人,我們可能需要做一些通常被認為含有一些道德負擔的決定。而一個標準的例子就是一個自動駕駛汽車必須決定是直行撞上前面的車還是改變方向,這可能對一些行人造成傷害。你如何權衡利弊?我認為這就是我們可以有所進展的地方。這并不需要超高智商的人工智能,這只需要一個可以通過各種方式權衡方案的程序即可?!?br />   當然,知道作出什么決定,首先需要知道究竟什么樣的道德準則才是正確的(或至少有一個公平的決定)。只有這樣,我們才能開始把它編程,這就是Contizer和他的團隊希望做的事。
?

非常好我支持^.^

(0) 0%

不好我反對

(0) 0%

      發表評論

      用戶評論
      評價:好評中評差評

      發表評論,獲取積分! 請遵守相關規定!

      ?