根據FuninUSA報道,微軟、谷歌和IBM的視覺系統要跟上現實世界需要做很多工作。這項研究的一些結果確實令人不安。
市場營銷公司Wunderman Thompson的數據集團進行了這項研究,研究了著名的視覺AI對戴PPE口罩的男性和女性的觀察方式是否相同。
研究人員為每種性別拍攝了256張不同質量、在不同地點的圖像,然后使用一些大型科技公司訓練的通用模型:谷歌云視覺(Cloud Vision)、微軟Azure認知服務計算機視覺(Cognitive Services Computer Vision)和IBM的沃森視覺(Watson Visua)來識別。
結果卻讓人有點不寒而栗。
雖然沒有一個系統在識別口罩方面特別出色,但它們識別男性口罩佩戴者的幾率是女性口罩佩戴者的兩倍。這種根據性別分類而產生的顯著的識別差異令人奇怪。
那么他們認為這些女人戴的是什么呢?谷歌AI認為28%的女性圖片中的嘴部是被膠帶封住。在8%的例子中,AI認為這些人是面部有毛發的女性,看起來臉上有很多毛發。
IBM的沃森(Watson)則更進一步。在23%的案例中,被識別為女性戴著封口膠。在另外23%的案例中,確定這是一位戴著鐐銬或鎖鏈的女性。
微軟的Azur計算機視覺可能也需要更精確的編碼。調查顯示,它們認為40%是女性佩戴的時尚配飾,14%是女性涂著口紅。
這樣的結果可能會讓很多人想知道這些人工智能的想法是從哪里來的。一個簡單的答案可能是“男人”。
然而,研究人員認為,這些機器是在網絡上“一個黑暗的角落”里尋找靈感,在那里,女性是暴力或沉默的受害者?!?/p>
很難想象這是真的,而且隨著我們越來越容易地迷失在人工智能叢中,這可能會帶來可怕的后果。
研究人員表示,他們并不是要妖魔化人工智能。(人工智能很擅長為自己做這件事。)
相反, 正如Wunderman Thompson的數據科學主管伊林卡·巴桑(Ilinca Barsan)所指出:“如果我們想要我們的機器做準確的和負責任的反映社會的工作, 我們需要幫助它們了解我們生活的社會動態,阻止它們通過自動化來強化現有的不平等,并讓它們為‘好’而工作。”
不過,當我問研究人員對IBM退出面部識別業務的想法時,他們回答說:“我們的研究側重于視覺標簽識別,而不是面部識別,但如果人工智能模型(公認是一般的)很容易混淆戴口罩的人和被堵住或被限制的人,那么對于IBM來說,退出一個如此容易被濫用、侵犯隱私和訓練偏見的業務似乎是正確的(也是明智的)做法?!?/p>
在幫助機器理解關鍵元素方面,人類還沒有做得很好。比如人類本身。部分原因是機器沒有這種本能,部分原因是人類很難理解自己。
毫無疑問,人工智能在實驗中也許發現了人類世界的深層潛意識,即女人在人類社會中的角色籠罩在某種黑暗奴役意識之中,當然這種潛意識普通人在瀏覽網頁過程中無法察覺,但是當人工智能遍歷網絡世界中卻能感受到大多數網絡的深層潛藏的意識并加以提煉學習,目前還不清楚實驗進行到了哪一個階段,但我們必須要清楚在人工智能認知領域的研發,美國企業是領先世界的。
目前出現的這種風險在人工智能領悟后又將傳播多少黑暗呢?
責編AJX
-
谷歌
+關注
關注
27文章
6142瀏覽量
105116 -
AI
+關注
關注
87文章
30239瀏覽量
268484 -
智能視覺
+關注
關注
0文章
100瀏覽量
9202
發布評論請先 登錄
相關推薦
評論