近日,由歐盟委員會任命的人工智能高級專家小組(AIHLEG)發布了 AI 開發和使用的道德草案。從到 2019 年 1 月 18 日為對外開放征求意見的期間,預計到了 2019 年 3 月,AI HLEG 將向歐盟委員會提交最終版本的指導方針,以及提出如何推進這項工作的建議,此外,歐盟委員會目前也正在向愿意分享相同價值觀的所有非歐盟國家開放合作。
該草案提出了具體的框架,第一章闡述 AI 必須遵守的基本權利和價值觀,以確保 AI 符合道德目的;第二章指出實現可信賴 AI 的指導方針,同時兼顧道德目的和技術穩健性,并列出可信賴 AI 的要求,包括技術和非技術方法;第三章則提供了具體但非窮舉的可信賴 AI評估表。
其中,該草案指出,可信賴的 AI 有兩個組成要素:一是應尊重基本權利,適用法規、核心原則和價值觀,以確保“道德目的”(ethical purpose);二是兼具技術魯棒性和可靠性,因為即使有良好的意圖,缺乏技術掌握也會造成無意的傷害。另外,AI 技術必須足夠穩健及強大,以對抗攻擊,以及如果 AI 出現問題,應該要有“應急計劃”(fall-back plan),例如在 AI 系統失敗了,必須要求交還由人類接手。
可信賴 AI 的不可為基本原則包括不應以任何方式傷害人類;AI 不應限制人的自由,即人們不應該被 AI 驅動的機器征服或強迫; AI 應該公平使用,不得歧視或誣蔑;AI 應透明地運作,即人類需要知道 AI 正在開發的目的,以及如何使用它;AI 應該只為個人和整個社會的福祉而發展。
歐盟委員會在 2018 年 4 月發布歐洲人工智能方法(European approach on AI)后,成立了人工智能高級專家小組,由 52 名來自學術界、工業界和民間社會的獨立專家組成,此次的 AI 道德準則草案第一版是由該高級專家小組制定。
-
AI
+關注
關注
87文章
30166瀏覽量
268428 -
人工智能
+關注
關注
1791文章
46870瀏覽量
237593
原文標題:歐盟AI道德準則草案出爐
文章出處:【微信號:robotmagazine,微信公眾號:機器人技術與應用】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論