前幾天,這樣一則消息沖上熱搜:清華大學法學院勞東燕副教授拒絕小區安裝人臉識別門禁系統。在大多數人眼中,人臉識別應用給日常生活帶來的便利不勝枚舉——支付、驗票、核實信息等等,借助人臉識別技術一氣呵成。不僅省去掏出手機和攜帶證件的種種麻煩,還能減化辦事流程、縮短無效時間。但勞教授偏偏“逆勢而為”,對人臉識別進小區說“不”。一項日??梢姷募夹g,怎么就觸動了勞教授的神經?
勞教授的反對,提醒著社會大眾,不可被技術的高效蒙蔽雙眼,必須意識到潛藏在便捷背后的威脅。
互聯網和大數據時代,隱私暴露正成為一個前所未有的巨大安全隱患。由于技術發展,過去不曾屬于敏感范疇的內容成為私密,其中以面部信息為代表的生物識別信息尤為突出。
對于任何個體而言,面部是使其區分于其他個體的重要標志,具有可識別性和獨一無二性。當我們實地面對他人時,展現出面部是必然的,這難以避免或代替。
假如沒有人臉識別等技術介入,他人的面部只能以記憶的形式留存在大腦中,或是被個人借助繪畫、語言等方式表現出來。這種“再現”因為與現實的面部有巨大差異,無法復制盜取而挪為他用,我們清楚自己的身份不能被冒充。
然而數字化語境中,情況截然不同。正如貝克在《風險社會》中所闡述的,近代之后隨著人類活動頻率的增多,活動范圍的擴大,其決策和行動對自然和人類社會本身的影響力也大大增強,從而風險社會從自然風險占主導逐漸演變成人為的不確定性占主導。我們發明使用各種技術,卻也被技術帶來的不確定性影響。
當面對機器時(包括手機、電腦、門禁等等),攝像頭記錄的影像都能轉為機器的語言被存儲,也能被再次表達出來。通過面部識別,一串串數字精準地復刻人臉信息——于是乎,對面部信息的掌控權就不在我們手中,而在機器手中了,進而說,在于掌握這項技術并實施管控的人手中。
那么究竟誰掌握著所有搜集來的信息?兩大重要主體分別是政府和企業。在這起事件當中,小區與業主直接進行接觸,但小區物業所做也僅僅是引進使用人臉識別門禁。對于搜集的個人信息,提供服務的技術方,也就是企業才真正擁有話語權。這里就暴露出兩大缺陷,一是人臉識別系統落地成本過低導致濫權,二是技術公司的信息保密工作不透明。
勞教授的抗爭取得了一定成果,小區安裝人臉識別門禁系統的計劃暫時擱置。但在大多數時候,用戶不得不接受“霸王條款”,強制同意或默認同意成為常態。包括大部分手機app在內,如果不同意它采集你的個人信息,用戶根本無法使用。
權利讓渡,在智能時代成為一種似乎不可避免的無奈。過去,通常政府部門才有權持有這類信息,然而現如今幾乎任何一家組織都能以某種名義搜集——借助科技公司提供技術服務,這種掌管個人信息的權力不斷下沉,小區等數量龐大的下層組織被數字增權了。人臉識別不僅進小區,還進商場、進校園。..。..由于純粹商業行為缺乏監管,失去控制的賦權導致了權力泛濫。
當人臉識別技術隨處可見時,意味著不計其數的信息已經進入了某個數據庫。那么接下來呢?這些數據庫的安全屏障是否牢固,能否抵擋黑客攻擊,個人信息有沒有被販賣…。..種種問題都必須追問,技術方有義務與責任向社會公開相關情況。
雖然勞教授的事件中沒有牽涉到政府,但我們同樣有必要對公權力保持警惕。例如,人臉識別技術在新冠疫情防控中發揮了顯著作用,與此同時,公眾有權利知曉,我們的信息是否安全。
然而同勞教授一樣對技術保持警覺的人終究是少數,普通民眾很難自覺維護個人信息安全。商業活動中,即使考慮到相關風險存在,大部分用戶仍然會為了正常享受服務而對條款妥協,究其原因,還是在于對潛在危險的認知不足。企業作為服務提供方沒有履行告知義務,公開對信息的保密措施,也沒有被關進權力的籠子,得到有效的市場或政府監管。
世界范圍內不少案例已然證明個人信息泄露的惡劣后果,例如facebook“劍橋分析”事件中,數千萬用戶數據遭到泄露,如此龐大的量級不得不令全社會警覺。另外一點,正如前面所說,面部信息具有不可替代性,其他隱私信息的保護也尤為重要,因為這些隱私防線一旦遭到破壞,對個體的權利損害幾乎是永久而不可逆的。
但我們依然能看到社會意識的進步。2019年10月28日,我國“人臉識別第一案”立案,浙江理工大學特聘副教授郭兵將杭州野生動物園告上法庭。后者以短信形式告知郭兵,其購買的年卡必須由指紋升級為人臉識別入園方式,否則便無法使用。他認為動物園擅自更改合同,隱瞞用戶強制搜集生物特征信息,涉及巨大隱私泄露風險。雙方協商無果后,郭兵對動物園提起訴訟。2020年6月15日,杭州市富陽區人民法院一審公開審理此案,經過4個多小時庭審,并未當庭做出判決。雖然目前為止判決結果尚不清晰,但這一案件對隱私保護具有歷史性意義。
責編AJX
-
隱私保護
+關注
關注
0文章
297瀏覽量
16435 -
人臉識別
+關注
關注
76文章
4007瀏覽量
81780
發布評論請先 登錄
相關推薦
評論