麥肯錫公司最近發(fā)表的一篇文章或許最好總結了當前關于企業(yè)環(huán)境、社會和治理(ESG)倡議的時代精神:“盡管已經(jīng)提出了關于ESG的有效問題,但公司理解和解決其外部性的需要可能對維持其社會許可至關重要。”人工智能(AI)技術是外部性的強大力量,越來越多地影響著社會許可的授予或者不授予方式。然而,在公眾對人工智能普遍不信任的情況下,將區(qū)塊鏈技術用于人工智能治理可以極大地幫助公司建立公眾對其負責任地使用這一技術的信任,進而建立社會許可。
一.使用區(qū)塊鏈進行人工智能治理
簡而言之,使用區(qū)塊鏈技術不停記錄所有關于人工智能(AI)或機器學習(ML)模型的決定,是朝著透明邁出的重要一步,透明是信任的關鍵要素。使用這種區(qū)塊鏈也允許可審計性,進一步幫助建立信任。這些原則是圍繞企業(yè)人工智能和模型開發(fā)標準構建的AI治理模型的核心,并由區(qū)塊鏈技術強制執(zhí)行。
開發(fā)一個人工智能決策模型是一個復雜的過程,包括無數(shù)的增量決策。這些包括模型的變量、模型設計、算法、使用的訓練和測試數(shù)據(jù)、特征的選擇、模型的原始潛在特征、倫理測試和穩(wěn)定性測試。它還包括構建變量集不同部分、參與模型創(chuàng)建和執(zhí)行模型測試的科學家。由于區(qū)塊鏈技術的支持,這些決策的總和與全部記錄提供了根據(jù)公司定義的標準在內部有效治理模型、確定責任和滿足即將到來的監(jiān)管要求所需的可見性。
二、問責制規(guī)范化的步驟
在區(qū)塊鏈成為流行術語之前,作者開始在其數(shù)據(jù)科學組織中實施分析模型管理方法。2010年建立了一個以分析跟蹤文檔(ATD)為中心的開發(fā)過程。這種方法詳細描述了模型設計、變量集、指定科學家、培訓和測試數(shù)據(jù)、成功標準和道德/穩(wěn)健性測試。ATD將整個開發(fā)過程分解成三個或更多的里程碑,在實現(xiàn)的每個階段都有正式的評審和批準。
自此以后,區(qū)塊鏈成為ATD的關鍵;它是一種機制,通過將一系列實體、工作任務和需求與每個單獨的模型相關聯(lián),包括測試和驗證檢查,來整理分析和ML模型開發(fā)。區(qū)塊鏈技術本質上記錄了數(shù)據(jù)科學家、經(jīng)理和作者之間的不變合同實例,該合同描述了:
(1)模型是什么?
(2)模型的目標;
(3)我們如何構建該模型,包括規(guī)定的ML算法;
(4)該模型必須改進的領域,例如,在交易層面將無卡(CNP)信用卡欺詐改進30%;
(5)科學家解決問題和不解決問題的自由度;
(6)重復使用可信和有效的變量和模型代碼片段;
(7)培訓和測試數(shù)據(jù)要求;
(8)AI道德程序和測試
(9)魯棒性和穩(wěn)定性測試
(10)特定模型測試和模型驗證清單
(11)專門指定的分析科學家構建變量、模型、培訓他們以及驗證代碼、確認結果、測試模型變量和模型輸出的人員
(12)該模型和特定客戶群的特定成功標準
(13)具體的分析比較、分配的任務和科學家,以及滿足要求的正式的競賽評審/批準。
這樣,ATD通知了一組非常具體的需求,這些需求與公司模型開發(fā)AI標準相關聯(lián)。一旦我們都協(xié)商好了我們的角色、責任、時間表和構建的需求,團隊中的每個人都將ATD作為一個合同來簽署。它成為我們定義整個敏捷型模型開發(fā)過程的文檔。
將個人分配到每一個需求中,然后團隊評估一組現(xiàn)有的附屬資料,這些資料通常是以前驗證過的可變代碼和模型的片段。一些分析變量在過去已經(jīng)被批準,其他的變量將被調整,還有一些將是新的變量。然后,區(qū)塊鏈每次記錄在該模型中使用該變量的時候——例如,從代碼庫中采用的任何代碼,新編寫的代碼,以及所做的更改——誰做的,完成了哪些測試,批準它的建模經(jīng)理,以及作者的簽名。
三.顆粒度跟蹤
重要的是區(qū)塊鏈提供了決策的線索。它顯示了一個變量是否可接受,它是否在模型中引入了偏差,或者變量是否得到了正確的利用。區(qū)塊鏈不僅列出了一份積極成果的清單。它同時記錄了構建這些模型的整個過程,包括它們的錯誤、修正和改進。
這種方法提供了很高的可信度,即沒有人向模型中添加表現(xiàn)不佳的變量或引入某種形式的偏差。它確保沒有人在他們的數(shù)據(jù)規(guī)范中使用不正確的字段,或者在沒有許可和驗證的情況下更改經(jīng)過驗證的變量。如果沒有ATD和現(xiàn)在的區(qū)塊鏈提供的嚴格審查過程來保持其可審計性,數(shù)據(jù)科學組織可能會無意中引入一個有錯誤的模型,特別是當這些模型和相關算法變得越來越復雜時。
此外,區(qū)塊鏈系統(tǒng)確保道德和穩(wěn)定性測試的公司標準得到執(zhí)行、審查和批準。該過程收集并整理了模型在生產(chǎn)時必須監(jiān)控的關系,以滿足負責任的人工智能標準。
四.透明的開發(fā)過程會減少偏見
在區(qū)塊鏈上貫穿公司模型開發(fā)標準,給予分析模型它自己的實體、生命、結構和描述。模型開發(fā)成為一個嚴格組織的過程;可以生成詳細的文檔,以確保所有元素都經(jīng)過了適當?shù)膶彶椋⑶夷P偷臎Q策沒有偏見。這些步驟將在模型生產(chǎn)過程中重新審視,為人工智能模型治理的操作階段提供一個基本的人工智能監(jiān)控框架。當模型最終被使用時,這些資產(chǎn)告知可觀察性和監(jiān)控需求,這是維持對其決策的信任所必需的。
總之,區(qū)塊鏈允許復雜的人工智能模型變得透明和可審計。這些是讓人工智能技術變得負責和可信的關鍵因素——這是建立人工智能治理系統(tǒng)的重要一步,該系統(tǒng)可以更新而不是侵蝕公司的社會許可。
審核編輯 :李倩
-
人工智能
+關注
關注
1791文章
46896瀏覽量
237670 -
ML
+關注
關注
0文章
146瀏覽量
34613 -
區(qū)塊鏈
+關注
關注
110文章
15560瀏覽量
105807
原文標題:人工智能(AI)治理:區(qū)塊鏈如何建立問責和信任
文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論