本文作者:Christina Montgomery,IBM首席隱私誠信官;Francesca Rossi,IBM研究院AI倫理全球負責人
北京2023年5月9日/美通社/ -- 隨著生成式 AI系統進入公共領域,讓世界各地的人們接觸到新的技術可能性、影響,甚至是此前尚未考慮的后果。得益于 ChatGPT和其他類似的系統,現在幾乎任何人都可以使用高級 AI 模型,這些模型不僅能夠具有早期版本的檢測模式、挖掘數據和提出建議等能力,還能創造新內容、在對話中生成原創的回復等。
AI 開發不必“因噎廢食”,但必須以倫理為先
AI 發展的轉折點
當生成式AI 功能的設計合乎倫理、并以負責任的方式推向市場時,它將為企業和社會帶來前所未有的機遇,包括:提供更好的客戶服務,改善醫療系統和法律服務;以及支持和增強人類的創造力,加快科學研發,并調動更有效的方法來應對氣候挑戰。
關于AI 的開發、部署和使用及其加速人類進步的潛力,我們正處于一個關鍵節點。然而,這種巨大的潛力也伴隨著風險,例如產生虛假內容和有害文本、泄露隱私,偏見被放大,同時,這些系統的運行也缺乏透明度。因此,合理質疑AI 對于勞動力、創造力以及人類整體福祉意味著什么,這至關重要。
行業需要新的AI 倫理標準
最近,一些科技行業的意見領袖聯名呼吁,將大型AI 模式的訓練暫停 6 個月,以留出時間制定新的AI倫理標準。其意圖和動機無疑是好的,但它忽略了一個基本事實:這些系統目前仍在我們的控制范圍內,基于它們構建的解決方案也是如此。
負責任的訓練,以及基于多方合作、將AI倫理貫穿始終的開發路徑,可以使這些系統變得更好而不是更糟。AI技術無時不刻都在演進和迭代。因此,不論是正在使用或是等待上線的AI系統,其訓練必須與構建負責任的AI這一目標保持一致。以負責任的AI為先不意味著要暫停AI開發。
持續采用和完善AI 倫理標準和規范,這項工作事關人人。IBM 在多年前就建立了行業最早的 AI 倫理委員會之一,以及全公司范圍內的 AI 倫理框架。通過評估當前和未來的技術格局,包括我們的行業定位以及與利益相關方的協作,我們不斷加強和完善這一框架。
IBM的AI倫理委員會打造了一個負責任的集中式治理結構,它覆蓋AI的全生命周期,在制定明確政策、推動問責制的同時,也能靈活且敏捷地支持IBM的業務需求。在傳統的和更先進的 AI 系統開發中,IBM一直踐行著這一重要治理結構。我們不能只關注未來的風險,而忽視眼前的治理需要,比如價值對齊(value alignment,即AI在執行任務中實現的價值和用戶所希望的價值是一致的)和 AI 倫理;后者也會隨著 AI 的發展而不斷演進。
除了協作和監督,打造這些AI系統的技術路徑應該從一開始就考慮倫理因素。例如,我們對 AI 的擔憂往往源于對"黑匣子"內部發生的情況缺乏了解。因此,IBM 開發了一個監管平臺,用于監控模型的公平性和偏見與否,獲取數據來源,最終形成更透明、可解釋且可靠的 AI 管理流程。此外,IBM的企業級AI戰略將信任嵌入整個AI生命周期中,從創建模型、訓練系統所使用的數據,到這些模型在特定業務領域的應用。
接下來需要做什么?
首先,我們倡導企業將倫理和責任置于其 AI 議程的首位。全面暫停AI 訓練或是降低AI 倫理的行業優先級,最終將事與愿違。
其次,政府應避免在技術層面對AI 進行過度監管。否則,這將成為一場"打地鼠"游戲,阻礙真正有益的、面向未來的創新。我們呼吁世界各地的立法者采取更加高效且精準的監管模式,對高風險的 AI 用例實施嚴格監管。
最后,在企業如何保護與AI 系統交互的數據隱私方面,仍然缺乏足夠的透明度。 我們需要為用戶提供一致的、可落地的個人隱私保護。
最近社會對AI 的廣泛關注,正應了這句話:權力越大,責任越大。與其全面暫停 AI 系統的開發,不如打破協作壁壘,共同打造負責任的AI。
審核編輯黃宇
-
IBM
+關注
關注
3文章
1749瀏覽量
74629 -
AI
+關注
關注
87文章
30212瀏覽量
268453
發布評論請先 登錄
相關推薦
評論