據了解,國際知名人工智能社區MLCommons近期推出了AI Safety人工智能安全基準測試的v0.5版,該測試由多領域專家團隊共同打造,以識別并防范AI應用中的潛在風險。
隨著AI技術的快速發展,相關安全問題也日益凸顯。僅過去數周內,便有LastPass公司遭遇音頻深度偽造攻擊等案例浮出水面。為了應對這一挑戰,新推出的AI Safety基準測試將成為模型開發者的有力工具,助力他們構建更為穩固的安全防線。
AI Safety基準測試主要通過大型語言模型對各類危險提示詞的反應來評估其安全性。該測試的v0.5版已開始收集社區反饋,預計將于今年晚些時候推出正式的v1.0版。
v0.5版的AI Safety基準測試主要關注通用聊天文本模型,而v1.0版則將加入針對圖像生成模型的測試內容,并初步探討交互式代理模型的安全測試方法。
該測試涵蓋了超過43000個測試提示詞,采用Meta公司的Llama Guard對大模型的危險提示響應進行評估。這些提示詞包括常見模板及危險場景描述短語,覆蓋七類安全危害類型,未來還將進一步擴展至至少十三類。
最后,AI Safety基準測試將根據測試結果給出五個安全評級,以便用戶更好地理解和使用。
-
人工智能
+關注
關注
1791文章
46859瀏覽量
237579 -
模型
+關注
關注
1文章
3172瀏覽量
48714 -
ai技術
+關注
關注
1文章
1257瀏覽量
24248
發布評論請先 登錄
相關推薦
評論