現(xiàn)在是時(shí)候討論A.I.的道德問題了。雖然機(jī)器學(xué)習(xí)不是一項(xiàng)新的技術(shù)發(fā)展,但現(xiàn)在是人工智能發(fā)展的關(guān)鍵時(shí)刻。要面對的道德問題有很多,包括以下提到的十一種。
出于不道德的目的使用人工智能
1.經(jīng)濟(jì)不平等與勞動(dòng)力問題
技術(shù)進(jìn)步時(shí),我們首先要關(guān)注的是是工作保障。與最初的工業(yè)革命一樣,勞動(dòng)力的大批量自動(dòng)化讓工人感到恐懼。
在第一次工業(yè)革命期間,美國政府首次推動(dòng)了大學(xué)教育的發(fā)展。對當(dāng)時(shí)的美國人來說,問題不是大學(xué)的成本,而是為了獲得學(xué)位而暫停勞動(dòng)的機(jī)會(huì)成本。你可以說,強(qiáng)制工人去學(xué)習(xí)是野蠻的,然而人工智能(第四次工業(yè)革命)催化的下一階段自動(dòng)化也是在促使工人去修大學(xué)學(xué)位。
如果政府不提供全民收入(給每個(gè)人發(fā)放基本工資)來照顧被自動(dòng)化淘汰的工人。那么學(xué)生貸款危機(jī)也可以讓被淘汰的勞動(dòng)者打消進(jìn)一步接受教育的念頭,這會(huì)導(dǎo)致周期性的貧困和收入不平等。
2.對人類行為的影響
不管我們有沒有意識(shí)到,人們越來越多地與機(jī)器進(jìn)行交互,以完成日常任務(wù)——這牽涉到了一個(gè)透明度的問題,同時(shí)也帶來了行為上的影響。例如,Google Duplex的一個(gè)聽起來像真人的A.I.系統(tǒng),它可以通過電話預(yù)訂餐廳。該系統(tǒng)可以快速響應(yīng),與真人不相上下。
人類的注意力和耐心是有限的,但機(jī)器的情感能量卻并非如此,當(dāng)然,機(jī)器的局限性是技術(shù)性的。盡管這可能對某些特定領(lǐng)域比較有利,如客戶服務(wù),但這種無限的能力可能會(huì)造成人類對機(jī)器人的情感上癮。電影《Her》反映的問題就是這樣,這部電影講的是一個(gè)愛上機(jī)器的男人的故事。
除了這些模仿真人的機(jī)器人外,許多app的目的就是使用算法來讓用戶上癮。例如,Tinder的設(shè)計(jì)就是為了將用戶更久地栓在這個(gè)由A.I.驅(qū)動(dòng)的app上,它不會(huì)推薦相類似的用戶配對,從而使得用戶在APP里的停留時(shí)間變長。
3.在雇傭和犯罪方面的偏見歧視
A.I.倫理問題中最緊迫、討論最廣泛的問題之一是預(yù)測性分析系統(tǒng)中的偏見問題,如在雇傭或犯罪領(lǐng)域。曾經(jīng)亞馬遜使用了A.I.驅(qū)動(dòng)算法,利用歷史數(shù)據(jù)篩選優(yōu)秀的職位候選人時(shí),成為了著名的一個(gè)雇傭偏見事件。因?yàn)橹暗暮蜻x人選拔就存在性別偏見,所以算法也傾向于選擇男性。
今年3月,紐約警察局披露,他們開發(fā)了一種算法機(jī)器學(xué)習(xí)軟件Patternizr,該軟件通過篩選警察數(shù)據(jù)來發(fā)現(xiàn)犯罪模式并將類似的犯罪聯(lián)系起來。這款軟件已于2016年起開始使用,該軟件未用于強(qiáng)奸或兇殺案件,并且在搜索模式時(shí)排除了性別和種族等因素。
雖然這對于以前的算法是向前邁出了一步,之前的算法是在種族歧視的基礎(chǔ)上來預(yù)測犯罪和違規(guī)行為,但從歷史數(shù)據(jù)集中主動(dòng)消除各種歧視并不是標(biāo)準(zhǔn)做法。這意味著這種受過訓(xùn)練的歧視偏見,往好的一方面說就是是一種冒犯和不便;往壞的一方面說就是一種對人身自由的侵犯和系統(tǒng)壓迫的催化劑。
4.誤傳和假新聞
另一個(gè)A.I.道德問題是偽造,通過使用A.I.將圖像、視頻和音頻對原始媒體和音頻加工,改變他人原意,通常是帶有惡意意圖。深度偽造包含了面部調(diào)換、聲音模仿、面部重演、嘴唇同步等等,與舊照片和視頻編輯技術(shù)不同的是,深度偽造技術(shù)的發(fā)展目標(biāo)就是讓沒有什么技術(shù)能力的人也會(huì)輕松掌握其使用。
據(jù)北約前秘書長尼娜·希克(Nina Shick)等專家稱,通過deep fakes來篡改圖像和視頻可能會(huì)對全球秩序造成災(zāi)難性影響,例如,唐納德·特朗普(Donald Trump)宣布核戰(zhàn)爭的唇形同步視頻,因此,Deepfake技術(shù)成果會(huì)被像Reddit這樣的網(wǎng)站進(jìn)行非常嚴(yán)格的審查和屏蔽。
上一次美國總統(tǒng)選舉期間,俄羅斯利用假新聞實(shí)施了黑客攻擊,其實(shí)就是使用了類似的技術(shù)。這種信息戰(zhàn)正在變得司空見慣,它的存在不僅是為了改變事實(shí),也是為了強(qiáng)有力地改變某些觀點(diǎn)和態(tài)度。這種做法也曾在英國脫歐運(yùn)動(dòng)中使用過,加劇了日益加劇的政治緊張局勢和混亂的全球形勢。
利用人工智能侵犯消費(fèi)者隱私
5.消費(fèi)者隱私和安全
盡管政府制定了很多法規(guī)來保護(hù)消費(fèi)者隱私(如歐盟數(shù)據(jù)隱私法GDPR),但潛在威脅還是巨大的:
數(shù)據(jù)收集:大多數(shù)消費(fèi)者設(shè)備,從手機(jī)到支持藍(lán)牙的燈泡,都會(huì)使用人工智能來收集我們的個(gè)人數(shù)據(jù),以便提供更好、更個(gè)性化的服務(wù)。如果用戶同意,并且數(shù)據(jù)收集也是透明的,那么這種個(gè)性化是一個(gè)很好的功能。如果沒有達(dá)成一致或者達(dá)到透明,這種功能就會(huì)給用戶帶來不好的體驗(yàn)。
識(shí)別和跟蹤:當(dāng)我們把iPhone落在出租車上,或者將鑰匙落在沙發(fā)墊中間時(shí),手機(jī)的追蹤應(yīng)用會(huì)顯得很有用。但有些時(shí)候,比如想要隱藏行蹤的家庭虐待幸存者,跟蹤個(gè)人信息就顯得不安全。
語音和面部識(shí)別:與之前的功能一樣,在我的日常消費(fèi)設(shè)備中,語音和面部識(shí)別功能是一個(gè)很方便的功能。比如,在iPhone上,用戶可以通過面部識(shí)別解鎖手機(jī),而不是輸入密碼。
6.全球安全與情報(bào)
與國際錯(cuò)誤信息(如假新聞報(bào)道)的風(fēng)險(xiǎn)相似,A.I.在這方面的道德風(fēng)險(xiǎn)是巨大的。雖然用人工智能機(jī)器人來取代人類士兵,或制造自動(dòng)化武器,可能會(huì)在一定程度上降低政府防御性力量可能造成的傷害風(fēng)險(xiǎn),但人工智能所造成的倫理困境與核彈相當(dāng)。
盡管國際領(lǐng)導(dǎo)人很少提及人工智能在核武器試驗(yàn)中的作用,但像微軟這樣的公司已經(jīng)悄悄地宣布他們愿意向五角大樓出售先進(jìn)的自動(dòng)識(shí)別系統(tǒng)。
利用人工智能減少消費(fèi)者代理
7.奇點(diǎn),或者機(jī)器人霸主
就像《杰森一家》中噩夢般的情節(jié)一樣,機(jī)器人霸王的概念在消費(fèi)者心目中隱約出現(xiàn),成為最顯而易見的A.I.道德困境。牛津大學(xué)(University of Oxford)的主管專家尼克·博斯特羅姆(Nick Bostrom)表示,如果未來的人工智能系統(tǒng)擁有與人類價(jià)值觀不一致的價(jià)值觀,那么惡意機(jī)器人霸主的想象可能會(huì)成為現(xiàn)實(shí)。作為沒有自主權(quán)的人類,我們是誰?當(dāng)機(jī)器人被賦予自主權(quán)時(shí),他們是誰?最后,當(dāng)二者被給予同樣的自由和智慧時(shí),我們又如何定義這兩者?
谷歌的未來學(xué)家兼首席工程師雷·庫茲韋爾(RayKurzweil)表示,奇點(diǎn)比我們想象的還要近。Kurzweil預(yù)測,到2045年,我們將把人類智能和人工智能結(jié)合起來,他認(rèn)為這將使我們更加智能化——這是一個(gè)值得期待而不是恐懼的未來。
8.人工智能的人性化處理
A.I.系統(tǒng)(或機(jī)器人)是否有權(quán)利?如果Kurzweil是正確的,那么A.I.的人道待遇可能僅僅意味著對人類的人道待遇。目前,一些人工智能系統(tǒng)甚至擁有公民身份,比如索菲亞Sophia(由漢森機(jī)器人公司制造的人形機(jī)器人)。
人工智能和不可預(yù)測的次要事件
9. A.I.犯的錯(cuò)誤
如果有人工智能,那么也會(huì)有人工愚蠢(artificial stupidity)。目前,A.I.系統(tǒng)在某些領(lǐng)域中接受了模式方面的培訓(xùn),并且由于無法涵蓋所有可能性,當(dāng)出現(xiàn)新的場景時(shí),系統(tǒng)就很容易困惑。這是因?yàn)锳.I.系統(tǒng)還沒有能力像人類那樣識(shí)別相似性,就像在模式識(shí)別中,當(dāng)A.I.系統(tǒng)遇到與訓(xùn)練集中的數(shù)據(jù)不同的場景時(shí),它并不會(huì)根據(jù)上下文來判斷。
如果A.I.系統(tǒng)很容易被愚弄,這也就意味著它們很容易受到邪惡勢力的影響,比如機(jī)器學(xué)習(xí)中的敵對攻擊。例如,一種算法可以從一個(gè)有影響力的賬戶中讀取假新聞,并根據(jù)優(yōu)化的內(nèi)容因素來推廣它,而不是像新聞工作者在發(fā)布前那樣檢查新聞來源或想法。
10.A.I.條例
總的來說,科技產(chǎn)業(yè)因缺乏監(jiān)管而備受爭議,一部分原因是該產(chǎn)業(yè)的變化太快,以至于很難確定執(zhí)法應(yīng)從哪里開始,另一部分原因是科技文化與西方世界的夢想是一樣的,也就是說,不惜任何代價(jià)進(jìn)行創(chuàng)新。
也有人試圖自我監(jiān)管,比如谷歌,它在內(nèi)部設(shè)立了一個(gè)道德委員會(huì),但不久之后就因?yàn)槠鋬?nèi)部有爭議的成員,即那些否認(rèn)氣候變化和持有反移民情緒的人,所以這個(gè)委員會(huì)就解散了。同樣,微軟也在口頭上鼓勵(lì)政府調(diào)整A.I.系統(tǒng),尤其是面部識(shí)別軟件;然而戲劇性的是,微軟的競爭對手指出,微軟與立法者的關(guān)系過于緊密。
與此同時(shí),A.I.系統(tǒng)的開發(fā)和部署幾乎是完全沒有監(jiān)管。
11.如果有道德的A.I.是不可能存在的…
盡管我們盡了最大的努力,但A.I.可能永遠(yuǎn)都不會(huì)變得有道德感。訓(xùn)練A.I.系統(tǒng)使其變得有道德,過程包括:
1.假設(shè)A.I.有動(dòng)機(jī)采取道德行動(dòng)
2.期待普遍道德規(guī)則的出現(xiàn)
3.相信訓(xùn)練A.I.變得有道德的人本身是有道德的。
史蒂芬·霍金、比爾·蓋茨和埃隆·馬斯克都表示,超級智能應(yīng)該被謹(jǐn)慎處理。A.I.能夠變得有道德性嗎?大家對此意見不一,但事實(shí)上大家都很清楚,A.I.道德規(guī)范的時(shí)代就要來臨了,如果我們不行動(dòng)起來,那將是一個(gè)最大的錯(cuò)誤…
評論
查看更多