近日,面部識別技術又遭遇“突發(fā)事件”。本周二,由90個倡議團體組成的小組給三巨頭AAM(亞馬遜、谷歌、微軟)寫信,要求三家公司承諾不向政府出售面部識別技術。其中,這些團體中包括了美國公民自由聯(lián)盟ACLU、難民移民教育和法律服務中心RAICES、電子前沿基金會EFF等重要組織。
這封信一經(jīng)公布,給予三家巨頭公司非常大的社會輿論壓力。三家公司都是面部識別技術系統(tǒng)領域的佼佼者,在該領域傾注了大量精力與努力。美國加利福尼亞州公民自由聯(lián)盟ACLU主任Nicole Ozer說,“我們正在用人臉識別技術監(jiān)控交通路口,這些公司現(xiàn)在所作出的選擇,將會決定我們的下一代時時生活在政府的監(jiān)控之中。比如,是否參加了游行抗議活動,監(jiān)控禮拜場所,甚至日常生活。”
1月18日早間,據(jù)彭博社消息,亞馬遜公司激進派股東,就亞馬遜向政府機構兜售面部識別軟件這一問題提交決議,建議停止銷售行為,直到該項技術被認定不會對公民權益產(chǎn)生威脅。該項決議將在2019年晚些時候,在亞馬遜年度大會上進行表決。非盈利機構Open MIC董事Michael Connor表示,亞馬遜向政府出售Rekognition,將自身和股東置于風險境地而不顧。ACLU則認為,面部識別技術很容易將深色皮膚的人種進行誤判。
十字路口
事實上,這絕對不是ACLU等團體的“小題大做”,2018年12月,美國特工處公布了一項關于在白宮周圍部署面部識別監(jiān)控測試系統(tǒng)的計劃,其目的在于確定可能對總統(tǒng)構成威脅的“目標嫌疑人”。據(jù)雷鋒網(wǎng)了解,該文件于2018年11月底公布,文件顯示,面部識別系統(tǒng)將會對在白宮公共區(qū)域錄制的閉路視頻片段與圖像數(shù)據(jù)庫進行對比,以監(jiān)控、跟蹤員工為特色。
該測試已于2018年11月19日啟動,于2019年8月30日結束。系統(tǒng)運行時,面部匹配的鏡頭圖像將會被保存,然后由人工審核人員確認并進行刪除工作。該文件承認對于不知情的訪客,運行此面部識別技術時可能具有侵略性。同時,它指出整個白宮已經(jīng)成為一個“高度監(jiān)控化的區(qū)域”,平民可以選擇回避該敏感區(qū)域。當時,ACLU公開表示,雖然白宮區(qū)域的監(jiān)控,看似應用范圍狹窄,但它打開了一個潘多拉盒子。即在公共場所對普通平民大眾進行毫無理由的審查,跨越了隱私保護的邊界線。
目前,美國國土安全部門(美國特工處在其中參與)已經(jīng)將面部識別技術用于掃描國內、國際航班上的乘客。該計劃可能將在未來幾年覆蓋到美國境內更多的機場。與此同時,美國一部分公安機構利用亞馬遜的面部識別工具Rekognition,實時地掃描視頻鏡頭中的圖像。例如,華盛頓警務室,奧蘭多市作為試點,近期進行了Rekognition第二次測試。
今年1月3日,Nextgov披露美國聯(lián)邦調查局正在試用亞馬遜面部匹配軟件Rekognition,用于反恐調查。有消息稱,2018年夏天,亞馬遜就向移民和海關執(zhí)法人員提供了Rekognition軟件。亞馬遜現(xiàn)為美國政府最重要的云技術AWS提供商,中央情報局、國防部都是其客戶。但其面部識別軟件在政府以及社會公共部門使用的詳細情況并不被外界所知。
面部識別技術受到了來自民間團體、社會輿論,以及監(jiān)管、立法機構的激烈反應,美國立法委員多次致信亞馬遜,要求提供關于亞馬遜Rekognition的更多信息。信中提到,“非常擔憂,該產(chǎn)品存在嚴重的準確性問題,給有色人種帶來打破平衡的精神負擔,并扼殺美國人在公眾場合行使第一修正法案中的權利。”一方面,面部識別技術巨頭加緊布局、侵入社會各個領域的應用、機構中。另一方面,巨頭內部、巨頭之間對面部識別技術的態(tài)度,也頗為猶豫、曖昧,矛盾重重。
近期,谷歌、微軟承認涉及面部識別服務存在的風險,以及被別有用心者濫用和監(jiān)視的可能性。特別是,去年12月,谷歌宣布在該技術漏洞不能被有效制止之前,將不會對外出售Vision API。微軟總裁布拉德·史密斯Brad Smith提出了一些保護性措施,以防止其被濫用。包括國會通過法律限制技術被濫用,具體而言,例如,減少偏見,必須通過法院的允許才可以進行個人跟蹤。
去年年底,微軟總裁布拉德·史密斯Brad Smith在布魯金斯學會的演講中表示了擔憂:
我們認為,2019年政府必須開始通過法律來規(guī)范這項技術。面部識別技術已經(jīng)從充滿邪惡的盒子中出現(xiàn)。除非我們采取行動,否則五年之后,當我們覺醒過來。將會發(fā)現(xiàn)面部識別服務加劇了社會負面問題的傳播,到那時,這些挑戰(zhàn)將會變得更加困難。
我們并不認為企業(yè)可以通過商業(yè)競爭,更好地服務于世界。科技公司被迫在社會責任與市場成功之間作出選擇。防止惡性競爭的唯一方法是建立一個有效健康的市場責任制平臺。堅實地要求企業(yè)確保該項技術開發(fā)和使用受到法律的制約。
相比之下,微軟CEO薩提·亞納德拉Satya Nadella表達地更為直接,“一些技術一旦遭到濫用,將對社會造成很大的危害,政府應該對其進行監(jiān)管”,“面部識別技術太可怕了,絕對是一場徹頭徹尾的不良競爭”,“以競爭的名義,做任何沒有界限的交易,對行業(yè)或者整個社會都不會帶來好的結果。”這番話語既指向了自身,也對準了其競爭對手亞馬遜,表達了對Rekognition的強烈不滿。
事出有因
人臉識別為何引起如此大的爭議?首先,涉及準確率的問題,面部識別系統(tǒng)可能出現(xiàn)重大的錯誤。去年的一次測試中,系統(tǒng)錯誤地將28名國會議員與數(shù)據(jù)庫中的搶劫犯匹配成功。盡管后期被人工糾正,但當工具范圍擴大,在一定程度上,導致一些人在短期內被當作通緝犯。
特別是,辨別有色人種時,容易產(chǎn)生較大的誤差。背后的原因在于,不同人種采用的數(shù)據(jù)模型、算法是不同的,需要分開部署。《紐約時報》曾經(jīng)報道,麻省理工學院媒體實驗室對微軟、IBM、曠視科技人臉識別系統(tǒng)的試驗研究。結果顯示在有色人種中,三者辨別非白種人的錯誤率高達20%-30%。從而進一步加劇社會種族歧視和偏見等問題。
其次,從隱私的角度看,面部識別技術涉嫌侵犯個人隱私權。這種技術的危害在于,很容易在未經(jīng)許可的情況下,被廣泛的濫用而不被普通人所察覺,個人隱私無所遁形。更為重要的是,一旦面部識別技術被用于軍事,將會帶給社會帶來毀滅性的打擊。
2018年4月,谷歌與軍方合作的Maven殺人機器人項目持續(xù)發(fā)酵,3千多名谷歌員工抗議,數(shù)十名員工請辭。國際機器人武器控制委員會ICRAC向谷歌CEO桑達爾·皮查伊Sundar Pichai、總裁拉里·佩奇Lawrence Edward Page、黛安·格林Diane Greene、李飛飛呼吁停止該項目,要求谷歌承諾不把該項技術用于軍事武器。
2017年,網(wǎng)絡流傳一段關于微型殺人機器人的視頻,機器人體型只有手掌1/2大小,可以輕易逃避人類的捕捉。通過自身視覺系統(tǒng)定位目標,發(fā)射彈藥或者有毒化學物質,殺害無辜的平民。基于人工智能的面部識別技術,同時集合快速定位、無人智能集群技術、靈敏傳感器、信息網(wǎng)絡等多種高端科技技術。當時這段“模擬”的視頻已經(jīng)成為現(xiàn)實,早在2016年美國就將機器人用于警方制服犯罪分子,而俄羅斯也被傳出一直秘密地研發(fā)殺人機器人,用于監(jiān)控和偵測,并集成爆炸系統(tǒng)用以軍事防御。
除了以上技術、倫理、政治正確等原因,面部識別技術在GDPR準則下,如何保證有效的數(shù)據(jù)庫,更好地演進技術,也將成為面部識別公司們面臨的巨大挑戰(zhàn)。有趣的是,相同的事物在不同的地區(qū),受到了截然不同的對待。近年,中國一直努力地推行復雜的面部識別技術,相關技術在安防、金融、日常C端產(chǎn)品中大量落地。相關數(shù)據(jù)顯示,國內目前監(jiān)控攝像頭安裝數(shù)量已突破兩億,是美國的四倍之多。
雷鋒網(wǎng)認為,正是由于國內對“新鮮事物”的包容心態(tài),以及普通民眾對安全性的高需求,使得面部識別技術得以順利迅速地落地、推廣。就像國內在移動支付領域的“后發(fā)優(yōu)勢”,既有其特殊的歷史背景,又有民眾樂于嘗試先進科技的好奇心所驅動。
-
機器人
+關注
關注
210文章
28197瀏覽量
206509 -
面部識別
+關注
關注
1文章
375瀏覽量
26618
原文標題:面部識別技術走到十字路口?
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論