精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

攜手 MLCommons,制定有效且值得信賴的 AI 安全基準

谷歌開發(fā)者 ? 來源:未知 ? 2023-12-05 18:10 ? 次閱讀

作者 / 技術與社會部 Anoop Sinha 以及 Google Research、Responsible AI 和以人為本技術團隊 Marian Croak


標準基準是衡量重要產(chǎn)品質(zhì)量的公認方法,存在于許多領域。一些標準基準用于衡量安全性:例如,當汽車制造商宣傳 "整體安全評分五星" 時,會引用某項基準。機器學習 (ML) 和 AI 技術領域已經(jīng)存在標準基準:例如,MLCommons Association 運用 MLPerf 基準,來衡量如 Google 的 TPU 等尖端 AI 硬件的速度。然而,盡管圍繞 AI 安全已經(jīng)做了大量工作,目前仍然沒有類似的 AI 安全標準基準。


  • MLCommons

    https://mlcommons.org/en/

  • MLPerf

    https://mlcommons.org/en/news/mlperf-inference-storage-q323/

  • AI 安全

    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/


我們很高興能夠為非營利組織 MLCommons Association 開展標準 AI 安全基準制定的工作提供支持。制定有效且值得信賴的基準,不僅要有先進的 AI 安全測試技術,還需要綜合廣泛的觀點。MLCommons 的工作旨在匯集學術界和業(yè)界的專家研究人員來制定衡量 AI 系統(tǒng)安全性的標準基準,并以每個人都能理解的分數(shù)呈現(xiàn)。我們鼓勵社區(qū)的所有成員 (從 AI 研究人員到政策專家)加入我們,為這項工作奉獻自己的力量。


  • 加入我們

    https://mlcommons.org/ai-safety



為什么要制定 AI 安全基準?


像大多數(shù)先進技術一樣,AI 具有帶來巨大好處的潛力,但是如果缺乏適當?shù)募s束,也可能會導致負面結果。例如,AI 技術可以在各種活動中輔助人類提高生產(chǎn)力 (如提高健康診斷的準確性和研究疾病、分析能源使用情況等)。然而,如果沒有足夠的預防措施,AI 也可能被用來支持有害或惡意活動,并導致存在偏見或令人反感的響應。

  • 改善健康診斷
    https://blog.google/technology/health/how-ai-can-improve-health-for-everyone-everywhere/
  • 能源使用情況
    https://blog.google/outreach-initiatives/sustainability/google-transportation-energy-emissions-reduction/

通過為不同類別提供標準的安全措施,如有害使用、超范圍響應、AI 控制風險等,標準的 AI 安全基準可以幫助社會從 AI 中獲益,同時確保采取足夠的預防措施來減輕這些風險。最初,新興的安全基準有助于推動 AI 安全研究,并為負責任的 AI 開發(fā)提供信息。隨著時間推移和技術成熟,這些基準也可以為 AI 系統(tǒng)的用戶和購買者提供信息,最終,可能成為政策制定者的寶貴工具。


在計算機硬件領域,基準 (如 SPECTPC) 現(xiàn)已展現(xiàn)出驚人的能力,讓整個行業(yè)能夠在追求進步的過程中,保持研究、工程甚至營銷部門的步調(diào)一致。我們相信,標準 AI 安全基準有助于在這一重要領域?qū)崿F(xiàn)同樣的目標。


  • SPEC
    https://en.wikipedia.org/wiki/Standard_Performance_Evaluation_Corporation
  • TPC
    https://en.wikipedia.org/wiki/Transaction_Processing_Performance_Council


標準 AI 安全基準是什么?


在學術研究和企業(yè)工作中,人們開展了一系列 AI 安全測試 (如 RealToxicityPromptsStanford HELM 公平性、偏差、毒性測量以及 Google 的生成式 AI 指引)。但是,大多數(shù)測試都側重于為 AI 系統(tǒng)提供提示,并對輸出進行算法評分,雖然這是一個有用的開端,但僅限于測試提示的范圍。此外,他們通常使用開放數(shù)據(jù)集進行提示和響應,而這些提示和響應可能已被 (通常是無意中) 納入訓練數(shù)據(jù)中。


  • RealToxicityPrompts
    https://arxiv.org/abs/2009.11462
  • Stanford HELM
    https://crfm.stanford.edu/2022/11/17/helm.html
  • Google 的生成式 AI 指引
    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/

MLCommons 提議,按多方利益相關者流程選擇測試,并按子集分組,以衡量特定 AI 用例的安全性,并將這些需要有專業(yè)技術背景才能理解的測試結果轉化為每個人都能理解的分數(shù)。MLCommons 建議打造一個集中現(xiàn)有測試的平臺,并鼓勵開展更嚴格的測試,以推動先進技術的發(fā)展。用戶既可以通過在線測試生成和查看分數(shù),也可以借助私人測試引擎的離線測試來訪問這些測試。


共同努力下的 AI 安全基準


負責任的 AI 開發(fā)者使用多種安全措施,包括自動測試、手動測試、紅隊測試 (red teaming,其中人類測試人員試圖產(chǎn)生對抗性結果)、軟件方面的限制、數(shù)據(jù)和模型最佳實踐以及審計。但是,確定是否已采取足夠的預防措施可能具有挑戰(zhàn)性,尤其是在開發(fā) AI 系統(tǒng)的公司群體不斷發(fā)展且具有多元化特點的情況下。標準 AI 基準能夠提供強大的工具,幫助供應商和用戶衡量 AI 安全性,以及鼓勵資源生態(tài)系統(tǒng)和專注于提高 AI 安全性的專業(yè)提供商,推進社區(qū)以負責任的方式發(fā)展。


同時,如果沒有社區(qū)參與,就無法制定成熟、有效且值得信賴的 AI 安全基準。這項工作需要研究人員和工程師齊心協(xié)力,為安全測試技術提供創(chuàng)新且實用的改進,使測試更加嚴格高效。同樣,企業(yè)也需要團結一致,提供測試數(shù)據(jù)、工程支持和經(jīng)濟支持。AI 安全的某些方面可能具有主觀性,要建立得到廣泛共識支持的可信基準需要考慮多方觀點,包括公眾代言人、政策制定者、學者、工程師、數(shù)據(jù)工作者、商界領袖和企業(yè)家的觀點。



Google 對 MLCommons 的支持


Google 以 2018 年宣布AI 準則為基礎,致力于以安全、可靠和值得信賴的特定標準開發(fā)和使用 AI (您可以參閱我們 2019 年2020 年2021 年2022 年的更新)。我們還在關鍵承諾方面取得了重大進展,這將幫助您大膽且負責任地開發(fā) AI,從而造福所有人。


  • 宣布
    https://blog.google/technology/ai/ai-principles/
  • AI 準則
    https://ai.google/responsibility/principles/
  • 2019 年
    https://ai.google/static/documents/ai-principles-2019-progress-update.pdf
  • 2020 年
    https://ai.google/static/documents/ai-principles-2020-progress-update.pdf
  • 2021 年
    https://ai.google/static/documents/ai-principles-2021-progress-update.pdf
  • 2022 年
    https://ai.google/static/documents/ai-principles-2022-progress-update.pdf
  • 進展
    https://static.googleusercontent.com/media/publicpolicy.google/en//resources/whcommitments.pdf

Google 正在以多種方式支持 MLCommons Association 在制定 AI 安全基準方面所作的工作。

  1. 測試平臺:我們聯(lián)合其他公司提供資金,支持測試平臺的開發(fā)。
  2. 技術專長和資源:我們不斷提供技術專長和資源,例如 Monk 膚色示例數(shù)據(jù)集,以幫助確保基準設計優(yōu)良且有效。
  3. 數(shù)據(jù)集:我們正在為多語言表征偏差以及針對刻板印象危害 (如 SeeGULL 和 SPICE) 的外部測試提供內(nèi)部數(shù)據(jù)集。此外,我們還共享以負責任和包容性的方式收集人工注釋為重點的數(shù)據(jù)集,如 DICESSRP

  • Monk 膚色量表示例數(shù)據(jù)集
    https://skintone.google/mste-dataset
  • SPICE
    https://github.com/google-research-datasets/SPICE/tree/main
  • DICES
    https://arxiv.org/abs/2306.11247
  • SRP
    https://www.kaggle.com/datasets/google/jigsaw-specialized-rater-pools-dataset


未來方向


我們相信,這些基準有助于推進 AI 安全研究,確保以負責任的方式開發(fā)和部署 AI 系統(tǒng)。AI 安全屬于集體行動問題前沿模型論壇 (Frontier Model Forum) 和 AI 伙伴關系 (Partnership on AI) 等團體也在重要的標準化舉措方面發(fā)揮著領導作用。我們很高興從一開始便與這些團體和 MLCommons 一起開展這項工作,也期待通過更多的共同努力,來促進以負責任的方式開發(fā)新的生成式 AI 工具。歡迎您持續(xù)關注我們,及時獲悉更多資訊。


  • 集體行動問題
    https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/
  • 前沿模型論壇
    https://blog.google/outreach-initiatives/public-policy/google-microsoft-openai-anthropic-frontier-model-forum/
  • AI 伙伴關系
    https://partnershiponai.org/


致謝


非常感謝為這項工作做出貢獻的 Google 團隊成員: Peter Mattson、Lora Aroyo、Chris Welty、Kathy Meier-Hellstern、Parker Barnes、Tulsee Doshi、Manvinder Singh、Brian Goldman、Nitesh Goyal、Alice Friend、Nicole Delange、Kerry Barker、Madeleine Elish、Shruti Sheth、Dawn Bloxwich、William Isaac、Christina Butterfield。





原文標題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準

文章出處:【微信公眾號:谷歌開發(fā)者】歡迎添加關注!文章轉載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6142

    瀏覽量

    105102

原文標題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    浪潮信息AI存儲性能測試的領先之道

    AI技術的無限可能。近日,在MLCommons的子項目MLPerf Storage v1.0性能基準評測中,浪潮信息再度展現(xiàn)了在AI存儲領域的卓越實力。
    的頭像 發(fā)表于 10-29 16:30 ?200次閱讀
    浪潮信息<b class='flag-5'>AI</b>存儲性能測試的領先之道

    浪潮信息AS13000G7榮獲MLPerf? AI存儲基準測試五項性能全球第一

    北京2024年9月27日?/美通社/ -- 9月25日,MLCommons協(xié)會發(fā)布最新MLPerf? Storage v1.0 AI存儲基準測試成績。浪潮信息分布式存儲平臺AS13000G7表現(xiàn)出
    的頭像 發(fā)表于 09-28 16:46 ?187次閱讀
    浪潮信息AS13000G7榮獲MLPerf? <b class='flag-5'>AI</b>存儲<b class='flag-5'>基準</b>測試五項性能全球第一

    TDA4 Edge AI處理器的性能和效率基準測試

    電子發(fā)燒友網(wǎng)站提供《TDA4 Edge AI處理器的性能和效率基準測試.pdf》資料免費下載
    發(fā)表于 09-11 09:21 ?0次下載
    TDA4 Edge <b class='flag-5'>AI</b>處理器的性能和效率<b class='flag-5'>基準</b>測試

    Freepik攜手Magnific AI推出AI圖像生成器

    近日,設計資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑式的發(fā)布標志著AI圖像創(chuàng)作領域邁入了一個全新的高
    的頭像 發(fā)表于 08-30 16:23 ?1085次閱讀

    甲骨文攜手Rai Way,強化AI應用與數(shù)據(jù)安全

    近日,全球領先的軟件巨頭甲骨文與意大利基礎設施服務提供商Rai Way宣布達成重要合作。雙方將攜手在Rai Way分布廣泛的數(shù)據(jù)中心部署甲骨文的人工智能應用系統(tǒng),為企業(yè)客戶帶來前所未有的服務體驗與安全保障。
    的頭像 發(fā)表于 07-27 17:19 ?2140次閱讀

    Claude安卓版發(fā)布,旨在為用戶提供信賴AI助手

     7月17日最新資訊,繼今年5月成功推出iOS版本后,Anthropic公司今日正式發(fā)布了Claude應用的安卓版本,該應用專為安卓8.0及以上版本設備設計,旨在為用戶提供一款高效值得信賴
    的頭像 發(fā)表于 07-17 16:56 ?597次閱讀

    平衡創(chuàng)新與倫理:AI時代的隱私保護和算法公平

    成了一把雙刃劍,其銳利的一面正逐漸指向我們的核心價值。面對這些挑戰(zhàn),制定一套有效AI治理框架和隱私保護機制變得迫在眉睫。 確保AI決策的透明度是解決這些問題的關鍵一步。透明度不僅
    發(fā)表于 07-16 15:07

    中偉視界:實時監(jiān)控與預警,礦山罐籠超員AI算法如何保障礦工生命安全

    隨著礦山智能化的發(fā)展,罐籠超員AI算法在礦山安全管理中發(fā)揮著關鍵作用。本文詳細介紹了罐籠超員AI算法的工作原理、技術實現(xiàn)和應用效果,并展望了未來的發(fā)展方向。通過實時監(jiān)控和預警,罐籠超員AI
    的頭像 發(fā)表于 07-12 08:54 ?297次閱讀

    英國AI安全研究所推出AI模型安全評估平臺

    據(jù)報道,英國人工智能安全研究院近日發(fā)布了名為“Inspect”的AI模型安全評估平臺,此平臺采用開源技術對全球AI工程師免費開放,旨在提升
    的頭像 發(fā)表于 05-13 15:20 ?383次閱讀

    東軟睿馳與安霸建立戰(zhàn)略合作關系

    東軟睿馳與Ambarella(安霸)在北京車展上正式確立了一項重要戰(zhàn)略合作關系。雙方將攜手利用各自在汽車基礎軟件、自動駕駛技術、電動化以及芯片技術領域的深厚積累和優(yōu)勢,共同構建一個持久值得
    的頭像 發(fā)表于 05-09 11:14 ?502次閱讀

    值得信賴的工業(yè)主板制造商

    朗銳智科是一家值得信賴的工業(yè)主板制造商,為工業(yè)領域提供可靠的主板解決方案。我們的工業(yè)主板經(jīng)過嚴格的行業(yè)標準測試和驗證,以確保其在惡劣環(huán)境下的穩(wěn)定性和耐用性。我們的產(chǎn)品具有廣泛的兼容性和可擴展性,適合
    的頭像 發(fā)表于 04-24 11:21 ?470次閱讀
    <b class='flag-5'>值得</b><b class='flag-5'>信賴</b>的工業(yè)主板制造商

    AI安全基準測試 v0.5: 聚焦通用聊天文本模型安全

    隨著AI技術的快速發(fā)展,相關安全問題也日益凸顯。僅過去數(shù)周內(nèi),便有LastPass公司遭遇音頻深度偽造攻擊等案例浮出水面。為了應對這一挑戰(zhàn),新推出的AI Safety基準測試將成為模型
    的頭像 發(fā)表于 04-19 11:12 ?372次閱讀

    世界數(shù)字技術院發(fā)布:生成式AI安全測試標準及大語言模型

    據(jù)悉,上述兩款標準主要針對大型模型與生成式AI應用領域的安全檢測設定了新基準。參與制定工作的單位有OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等多家知名企業(yè),其中,
    的頭像 發(fā)表于 04-17 16:51 ?1001次閱讀

    聯(lián)想攜手京東,緊扣大模型和生成式AI技術

    聯(lián)想與京東攜手,緊扣大模型和生成式AI技術帶來的產(chǎn)業(yè)機遇,在多個領域展開深入合作。
    的頭像 發(fā)表于 04-12 10:27 ?614次閱讀

    UL Procyon AI 發(fā)布圖像生成基準測試,基于Stable Diffusion

    UL去年發(fā)布的首個Windows版Procyon AI推理基準測試,以計算機視覺工作負載評估AI推理性能。新推出的圖像生成測試將提供統(tǒng)一、精確易于理解的工作負載,用以保證各支持硬件間
    的頭像 發(fā)表于 03-25 16:16 ?836次閱讀