自從谷歌宣布AI原則開始,已經(jīng)過了一年時間。如今Jeff Dean和Kent Walker對原則獲得的成果做了匯報。分享他們工作的最新消息,包括內(nèi)部教育、工具和研究、評估流程、以及外部合作等,進(jìn)一步驗證了該原則有助于指導(dǎo)人工智能在研究和產(chǎn)品中的道德發(fā)展和使用。
人工智能已經(jīng)深入到生活中的方方面面。每天,我們都會看到人工智能通過幫助來自世界各地的人們,為我們的生活帶來積極的變化。
例如,幫助放射科醫(yī)生檢測肺癌、提高印度農(nóng)村的識字率、保護(hù)瀕危物種等等。甚至來說,人工智能還深入到洪水預(yù)報和預(yù)測地震余震方面的研究中,通過減輕自然災(zāi)害來拯救生命。
隨著人工智能業(yè)務(wù)范圍不斷地擴(kuò)展,已經(jīng)觸及到我們曾無法想象的深度和廣度,與此同時也引發(fā)了圍繞公平性和隱私等話題的討論。
這個話題非常重要,需要全球社會的參與。一年前,谷歌推出了“人工智能原則”,這些原則有助于指導(dǎo)人工智能在我們的研究和產(chǎn)品中的道德發(fā)展和使用。
現(xiàn)在,到了檢驗效果的時候了!谷歌分享了在提出人工智能原則一年后的最新工作進(jìn)展。
內(nèi)部員工訓(xùn)練成果
谷歌教育并授權(quán)員工了解人工智能的重要問題,批判性地思考如何將人工智能付諸實踐。在過去的一年中,成千上萬的谷歌員工已經(jīng)完成了機(jī)器學(xué)習(xí)公平性培訓(xùn)。
此外,谷歌還在四個辦事處試行了道德培訓(xùn),并在三大洲組織了一個人工智能道德系列講座。
工具和研究成果
在過去的一年里,谷歌專注于分享知識、構(gòu)建技術(shù)工具、更新產(chǎn)品,以及開發(fā)負(fù)責(zé)任、有道德的人工智能框架,以使每個人受益。
谷歌共發(fā)布了超過75篇關(guān)于“負(fù)責(zé)任的人工智能”主題的研究論文,涉及機(jī)器學(xué)習(xí)公平性、可解釋性、隱私性和安全性。同時開發(fā)、開源12款新工具。例如:
What-If是一個新工具,允許用戶在無需編寫代碼的情況下分析機(jī)器學(xué)習(xí)模型,將偏差和各種公平約束的影響可視化,并比較多個模型的性能
谷歌翻譯通過在谷歌翻譯網(wǎng)站上為一些性別中立的詞語提供女性和男性翻譯,來減少性別偏見
擴(kuò)展了federated learning的工作,這是一種新的機(jī)器學(xué)習(xí)方法,允許開發(fā)人員訓(xùn)練人工智能模型,使產(chǎn)品更智能而無需數(shù)據(jù)離開設(shè)備。已開源
“People + 人工智能”指南是一個關(guān)于如何構(gòu)建以人為本的人工智能產(chǎn)品的方法和決策框架的工具包。它于5月推出,包括來自40個谷歌產(chǎn)品團(tuán)隊的貢獻(xiàn)
隨著谷歌反思最新的技術(shù)構(gòu)想和工作,谷歌承諾會繼續(xù)每季度更新一次負(fù)責(zé)任的人工智能實踐。
評估流程
評估流程有助于滿足人工智能原則。谷歌鼓勵所有員工考慮人工智能原則如何影響他們的項目,并且正在改進(jìn)流程以確保是否新項目、新產(chǎn)品甚至新的交易經(jīng)過了仔細(xì)考慮和評估。谷歌在考慮收益的同時還會評估如何降低風(fēng)險,例如:
Cloud AI Hub
借助Cloud AI Hub,企業(yè)和其他組織可以共享并更輕松地訪問各種已經(jīng)過訓(xùn)練的機(jī)器學(xué)習(xí)模型。
介于AI Hub的大部分內(nèi)容將由谷歌以外的第三方組織發(fā)布,導(dǎo)致難以評估人工智能原則中的所有內(nèi)容。
因此,谷歌評估了圍繞發(fā)布AI Hub的道德考慮因素,例如有害的雙重使用、濫用或提供誤導(dǎo)性信息的可能性。
在評估過程中,團(tuán)隊制定了一個處理潛在風(fēng)險和有害內(nèi)容的雙層策略:
鼓勵社區(qū)成員權(quán)衡諸如不公平偏見等問題。為了支持社區(qū),Cloud AI提供資源(如包容性機(jī)器學(xué)習(xí)指南),以幫助用戶識別可信賴的內(nèi)容
為Cloud AI Hub制定服務(wù)條款,特別是有關(guān)內(nèi)容和行為限制的部分
這些保護(hù)措施使AI Hub的內(nèi)容生態(tài)系統(tǒng)更有可能實用且維護(hù)良好,保證可以繼續(xù)推進(jìn)AI Hub。
文字轉(zhuǎn)語音(TTS)研究論文
谷歌的一個研究小組撰寫了一篇學(xué)術(shù)論文,探討了人工智能研究中的一項重大挑戰(zhàn):系統(tǒng)通常需要從頭開始重新訓(xùn)練,擁有大量數(shù)據(jù),甚至可以承擔(dān)稍微不同的任務(wù)。
本文詳細(xì)介紹了一種有效的文本到語音(TTS)網(wǎng)絡(luò),它允許系統(tǒng)進(jìn)行一次訓(xùn)練,然后適應(yīng)新的揚(yáng)聲器,所需時間和數(shù)據(jù)更少。
雖然更智能的文本到語音網(wǎng)絡(luò)可以幫助患有語音障礙、肌萎縮側(cè)索硬化癥或氣管切開術(shù)的患者,但谷歌認(rèn)識到這些技術(shù)可能被用于有害應(yīng)用,例如為了欺騙目的而合成某人的聲音。
最終,谷歌確定該文件中描述的技術(shù)由于多種原因(包括使其生效所需的數(shù)據(jù)質(zhì)量),被濫用的可能性比較有限,來自互聯(lián)網(wǎng)的錄音都不能達(dá)到被濫用的要求。
此外,網(wǎng)絡(luò)產(chǎn)生的樣本與發(fā)言者的聲音之間存在足夠的差異,以便聽眾識別出什么是真實的人聲。
綜合評估后谷歌得出結(jié)論,本論文符合人工智能原則。這項工作加強(qiáng)了對識別和預(yù)先制止可能的濫用的承諾。
與外部利益相關(guān)者合作
與更廣泛的社區(qū)進(jìn)行持續(xù)探討,對發(fā)展具有社會責(zé)任感的人工智能至關(guān)重要。谷歌與政策制定者和技術(shù)社區(qū)合作,參加了100多個研討會、研究會議和峰會,并直接與全球4000多名利益相關(guān)者進(jìn)行了接觸。
隨著人工智能的不斷發(fā)展,谷歌將繼續(xù)分享觀點(diǎn),并與學(xué)術(shù)界、行業(yè)界和政策制定者合作,促進(jìn)人工智能的負(fù)責(zé)任發(fā)展。
谷歌支持針對特定行業(yè)和用例量身定制的智能監(jiān)管。今年早些時候,谷歌發(fā)布了《關(guān)于人工智能治理問題的觀點(diǎn)》白皮書,以幫助促進(jìn)實施務(wù)實和前瞻性的方法。它概述了政策制定者應(yīng)與民間社會和人工智能實踐者合作的五個領(lǐng)域,以發(fā)展人工智能的框架。
谷歌認(rèn)識到,總會有更多工作要做,并將繼續(xù)與來自不同行業(yè)的領(lǐng)導(dǎo)者、政策制定者、學(xué)者和其他利益相關(guān)者合作,以解決這些重要問題,做好正確的工作,并確保包含最廣泛的觀點(diǎn),使生活變得更好。
-
谷歌
+關(guān)注
關(guān)注
27文章
6142瀏覽量
105110 -
人工智能
+關(guān)注
關(guān)注
1791文章
46869瀏覽量
237593 -
開源
+關(guān)注
關(guān)注
3文章
3253瀏覽量
42408 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8378瀏覽量
132415
原文標(biāo)題:Jeff Dean:一年開源12款新工具,谷歌負(fù)責(zé)任AI原則落地生根
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論