作者 / 技術與社會部 Anoop Sinha 以及 Google Research、Responsible AI 和以人為本技術團隊 Marian Croak
標準基準是衡量重要產(chǎn)品質(zhì)量的公認方法,存在于許多領域。一些標準基準用于衡量安全性:例如,當汽車制造商宣傳 "整體安全評分五星" 時,會引用某項基準。機器學習 (ML) 和 AI 技術領域已經(jīng)存在標準基準:例如,MLCommons Association 運用 MLPerf 基準,來衡量如 Google 的 TPU 等尖端 AI 硬件的速度。然而,盡管圍繞 AI 安全已經(jīng)做了大量工作,目前仍然沒有類似的 AI 安全標準基準。
MLCommons
https://mlcommons.org/en/
MLPerf
https://mlcommons.org/en/news/mlperf-inference-storage-q323/
AI 安全
https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/
我們很高興能夠為非營利組織 MLCommons Association 開展標準 AI 安全基準制定的工作提供支持。制定有效且值得信賴的基準,不僅要有先進的 AI 安全測試技術,還需要綜合廣泛的觀點。MLCommons 的工作旨在匯集學術界和業(yè)界的專家研究人員來制定衡量 AI 系統(tǒng)安全性的標準基準,并以每個人都能理解的分數(shù)呈現(xiàn)。我們鼓勵社區(qū)的所有成員 (從 AI 研究人員到政策專家)加入我們,為這項工作奉獻自己的力量。
加入我們
https://mlcommons.org/ai-safety
改善健康診斷 https://blog.google/technology/health/how-ai-can-improve-health-for-everyone-everywhere/ 能源使用情況 https://blog.google/outreach-initiatives/sustainability/google-transportation-energy-emissions-reduction/
在計算機硬件領域,基準 (如 SPEC、TPC) 現(xiàn)已展現(xiàn)出驚人的能力,讓整個行業(yè)能夠在追求進步的過程中,保持研究、工程甚至營銷部門的步調(diào)一致。我們相信,標準 AI 安全基準有助于在這一重要領域?qū)崿F(xiàn)同樣的目標。
SPEC https://en.wikipedia.org/wiki/Standard_Performance_Evaluation_Corporation TPC https://en.wikipedia.org/wiki/Transaction_Processing_Performance_Council
在學術研究和企業(yè)工作中,人們開展了一系列 AI 安全測試 (如 RealToxicityPrompts、Stanford HELM 公平性、偏差、毒性測量以及 Google 的生成式 AI 指引)。但是,大多數(shù)測試都側重于為 AI 系統(tǒng)提供提示,并對輸出進行算法評分,雖然這是一個有用的開端,但僅限于測試提示的范圍。此外,他們通常使用開放數(shù)據(jù)集進行提示和響應,而這些提示和響應可能已被 (通常是無意中) 納入訓練數(shù)據(jù)中。
RealToxicityPrompts https://arxiv.org/abs/2009.11462 Stanford HELM https://crfm.stanford.edu/2022/11/17/helm.html Google 的生成式 AI 指引 https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/
負責任的 AI 開發(fā)者使用多種安全措施,包括自動測試、手動測試、紅隊測試 (red teaming,其中人類測試人員試圖產(chǎn)生對抗性結果)、軟件方面的限制、數(shù)據(jù)和模型最佳實踐以及審計。但是,確定是否已采取足夠的預防措施可能具有挑戰(zhàn)性,尤其是在開發(fā) AI 系統(tǒng)的公司群體不斷發(fā)展且具有多元化特點的情況下。標準 AI 基準能夠提供強大的工具,幫助供應商和用戶衡量 AI 安全性,以及鼓勵資源生態(tài)系統(tǒng)和專注于提高 AI 安全性的專業(yè)提供商,推進社區(qū)以負責任的方式發(fā)展。
同時,如果沒有社區(qū)參與,就無法制定成熟、有效且值得信賴的 AI 安全基準。這項工作需要研究人員和工程師齊心協(xié)力,為安全測試技術提供創(chuàng)新且實用的改進,使測試更加嚴格高效。同樣,企業(yè)也需要團結一致,提供測試數(shù)據(jù)、工程支持和經(jīng)濟支持。AI 安全的某些方面可能具有主觀性,要建立得到廣泛共識支持的可信基準需要考慮多方觀點,包括公眾代言人、政策制定者、學者、工程師、數(shù)據(jù)工作者、商界領袖和企業(yè)家的觀點。
Google 以 2018 年宣布的 AI 準則為基礎,致力于以安全、可靠和值得信賴的特定標準開發(fā)和使用 AI (您可以參閱我們 2019 年、2020 年、2021 年、2022 年的更新)。我們還在關鍵承諾方面取得了重大進展,這將幫助您大膽且負責任地開發(fā) AI,從而造福所有人。
宣布 https://blog.google/technology/ai/ai-principles/ AI 準則 https://ai.google/responsibility/principles/ 2019 年 https://ai.google/static/documents/ai-principles-2019-progress-update.pdf 2020 年 https://ai.google/static/documents/ai-principles-2020-progress-update.pdf 2021 年 https://ai.google/static/documents/ai-principles-2021-progress-update.pdf 2022 年 https://ai.google/static/documents/ai-principles-2022-progress-update.pdf 進展 https://static.googleusercontent.com/media/publicpolicy.google/en//resources/whcommitments.pdf
Google 正在以多種方式支持 MLCommons Association 在制定 AI 安全基準方面所作的工作。
測試平臺:我們聯(lián)合其他公司提供資金,支持測試平臺的開發(fā)。 技術專長和資源:我們不斷提供技術專長和資源,例如 Monk 膚色示例數(shù)據(jù)集,以幫助確保基準設計優(yōu)良且有效。 數(shù)據(jù)集:我們正在為多語言表征偏差以及針對刻板印象危害 (如 SeeGULL 和 SPICE) 的外部測試提供內(nèi)部數(shù)據(jù)集。此外,我們還共享以負責任和包容性的方式收集人工注釋為重點的數(shù)據(jù)集,如 DICES 和 SRP。
Monk 膚色量表示例數(shù)據(jù)集 https://skintone.google/mste-dataset SPICE https://github.com/google-research-datasets/SPICE/tree/main DICES https://arxiv.org/abs/2306.11247 SRP https://www.kaggle.com/datasets/google/jigsaw-specialized-rater-pools-dataset
我們相信,這些基準有助于推進 AI 安全研究,確保以負責任的方式開發(fā)和部署 AI 系統(tǒng)。AI 安全屬于集體行動問題。前沿模型論壇 (Frontier Model Forum) 和 AI 伙伴關系 (Partnership on AI) 等團體也在重要的標準化舉措方面發(fā)揮著領導作用。我們很高興從一開始便與這些團體和 MLCommons 一起開展這項工作,也期待通過更多的共同努力,來促進以負責任的方式開發(fā)新的生成式 AI 工具。歡迎您持續(xù)關注我們,及時獲悉更多資訊。
集體行動問題 https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/ 前沿模型論壇 https://blog.google/outreach-initiatives/public-policy/google-microsoft-openai-anthropic-frontier-model-forum/ AI 伙伴關系 https://partnershiponai.org/
原文標題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準
文章出處:【微信公眾號:谷歌開發(fā)者】歡迎添加關注!文章轉載請注明出處。
-
谷歌
+關注
關注
27文章
6142瀏覽量
105102
原文標題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準
文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論