隨著時間的推移,人類會產生偏見。我們不是天生的。但是,在世界各地的社區,行業和社會環境中都存在性別,經濟,職業和種族偏見的例子。盡管有人領導著從根本上改變物理世界中這些現象的倡議,但它在數字世界中以新的方式持續存在和體現。
在科技界,從初創企業文化到融資回合到技術本身的各種偏見都彌漫著。具有變化潛力的創新不會獲得必要的資金,或者由于其創始人的人口組成或性別而被完全忽略。由于背景各異,正在篩選具有非傳統和課外經驗的人,使其有資格從事編碼工作,這些人正被排除在招聘流程之外。
現在,我擔心我們會在人工智能方面走類似的道路。市場上的AI技術開始顯示有意和無意的偏見-從按人口統計或背景將候選人簡歷分組的人才搜索技術到不敏感的自動填充搜索算法。它也適用于商業世界之外-從基于對某人的喜好和假設的辨別種族的社交平臺,到以性別和名字命名的AI助手都被標記為女性。事實是,除非建立在考慮包容性的基礎上,否則人工智能中的偏見就會發生。創建包容性AI的最關鍵步驟是認識到偏見如何影響技術的輸出以及它如何使“智能”產生的客觀性降低。
好消息是:建立一個平衡的數據集來克服這些偏差的AI平臺還為時不晚,AI可以在該平臺上學習并開發反映用戶多樣性的虛擬助手,這要求工程師負責任地將AI連接到各種受信任的數據源可提供相關答案,做出可負責任的決策并基于交付所需結果來獎勵AI。
從廣義上講,將性別角色添加到技術上可以永久性地體現性別角色。今天,我們看到女主持人(亞馬遜的Alexa,微軟的Cortana,蘋果的Siri)主要用于行政工作,購物和執行家務。同時,男性演講助理(IBM的Watson,Salesforce的Einstein,三星的Bixby)正在被用于更宏大的業務戰略和復雜的,針對垂直領域的工作。
-
AI
+關注
關注
87文章
30146瀏覽量
268417 -
人工智能
+關注
關注
1791文章
46859瀏覽量
237577 -
數據集
+關注
關注
4文章
1205瀏覽量
24644
發布評論請先 登錄
相關推薦
評論