一個關于人工智能(AI)輔助刑偵的案例相當有趣:今年以來,基于人臉識別技術,已有不下5名逃犯在多地舉行的張學友演唱會上被抓。
而另一案例卻令人十分憂慮:浙江紹興警方去年破獲的一起涉嫌詐騙的案件中,犯罪嫌疑人的行為涉及竊取數據、利用人工智能曬密撞庫、分銷數據、冒充詐騙、洗錢等整個產業鏈。其中,曬密撞庫是基于人工智能的快速識別驗證碼技術。
有科學家估計,到2040年,人工智能的犯罪率將會超過人類。利用人工智能技術進行欺詐等犯罪行為,在很大程度上與個人信息泄露與隱私保護不力相關。如何在發揮人工智能積極作用的同時,保護個人隱私、防止詐騙等犯罪,以及平衡個人保護與公共利益的關系,是人工智能時代的一項重要課題。
AI比你更了解你
在各種智能終端、傳感器無所不在的今天,借助便捷的信息采集技術,社交網絡能夠很方便地將人們的行為方式、性格傾向、興趣愛好等信息化和數據化,而通過相應的智能算法,就可以準確地畫出每個人的“數據畫像”,這也意味著,在大數據采集、分析和人工智能技術面前,我們每個人都將變成“透明人”,不再擁有傳統意義上的隱私。可以說,算法甚至比你自己更了解你。而掌握著這些數據和算法的機構,無論是公共部門還是商業企業,都可以利用其來“智能化”地推行社會治理或提供商品服務,從而大幅提升管理效率與服務水平。
對公共部門而言,借助上述技術可以方便地掌握民眾在收入、消費、健康、教育等方面的情況,為稅收、社保、衛生、教育等方面的政策制定與實施提供支持。但其中的一個風險在于:人工智能基于機器學習特別是自主學習而形成的“黑箱”特征,并不能保證其所習得的算法的公平性和合理性,因為它只能保持“近似正確”,從而有可能產生誤判。紐約市的教育部門由于引入了基于人工智能的評教系統,導致一位深受學生和同事喜愛的老師被解雇,就是一個“算法失效”的典型案例。
與公共部門相比,商業機構特別是掌握大量消費者數據的平臺公司,則是消費者受到隱私泄露與“算法歧視”威脅的最大風險源。第一種常見的風險是,消費者個人信息被泄露和不當使用,如臉書和劍橋分析公司的信息泄露案就是典型代表。另一種常見的風險是,在完全沒有外部規制的條件下,商家有足夠的動力根據消費者的個人偏好向其推薦特定商品或服務,并根據消費者的收入水平、消費傾向而“因人定價”,以實現利潤最大化。此外,如保險公司拒絕向特定人群(如特定基因攜帶者或特定行為人群)提供保險,類似這種“消費者歧視”或“拒絕服務”,在人工智能+大數據分析的今天不難做到。
為了應對人工智能時代可能引發的信息泄露與侵權問題,歐盟出臺了號稱史上最嚴厲的數據保護法規——《通用數據保護條例》(GDPR),并于今年開始實施。條例對個人信息的保護達到前所未有的程度,將數據披露與使用的權利賦予個人,明確數據控制者與處理者有保護個人數據及加工處理以防止泄密的義務,值得研究與借鑒。
金融詐騙的新寵
近年來,人工智能技術被少數別有用心的人有目的地用于欺詐等犯罪行為。如將基于不當手段獲取的個人信息形成“數據畫像”,再借助社交平臺冒充熟人進行詐騙。再比如,使用人工智能技術進行學習與模擬,生成包括圖像、視頻、音頻、生物特征等在內的信息,突破安防屏障。去年曾有報道稱新款蘋果手機“刷臉”開機功能被破解,即是這類例子。
傳統的金融欺詐檢測系統高度依賴復雜的密碼、刻板的規則,在提供保護的同時也給消費者帶來諸多不便,并且由于缺乏有效的科技手段,已無法應對日益演進的欺詐模式和欺詐技術,偽造、冒充身份等欺詐事件時有發生,給企業和消費者造成很大損失。
可喜的是,目前已經出現相當一部分人工智能技術用來防范可能的犯罪行為,如智能安防領域的語音識別、人臉識別、視頻抓取等,再比如智能金融領域的免密支付、生物特征識別、異常行為分析等。且目前國內已出現以反欺詐為代表的金融科技公司,致力于應用人工智能技術構建自動化、智能化反欺詐技術和系統,幫助企業風控系統打造用戶行為追蹤與分析能力,建立異常特征的自動識別能力,逐步達到自主、實時地發現新的欺詐模式的目標。這在信用體系、監管體系存在缺失的社會,具有特別重要的意義。
運用人工智能技術應對如金融欺詐等犯罪行為,除了需要技術本身的研發與完善,還需要相關法律法規的保障,如針對電子證據(包括行為數據)的獲取與保存、平臺與消費者舉證責任劃分等問題,都應建立具體的法律法規保障制度。
此外,從潛在風險來看,無人機、無人車、智能機器人等都可能遭到非法侵入與控制,導致財產損失或被犯罪分子利用的后果。針對此類風險,則要從產品設計上進行追溯,明確是否存在設計缺陷或漏洞,在界定生產者責任的基礎上再行改進與完善。
制度+技術的雙重防控
如前所述,人工智能技術應用于公共治理、商業服務、公共安全等領域,能夠帶來極大的便利和明顯的收益,但同時也引發了一系列新問題,其核心是對信息,特別是個人敏感信息的搜集、分析、處置與使用,以及這一過程中不同參與主體相互之間責任、權利與義務關系的界定。因此,這是一個公共治理問題。
從這一角度來看,在人工智能時代,個人數據和隱私保護已經不單是個人權利問題,還與公共利益息息相關。例如,“個人數據畫像”的生成,除基于個人特征信息外,更多來自行為數據,尤其是來自與他人的交往和聯系中所產生的數據。因此,在數據治理上,如何實現個人保護與公共利益的平衡,需要深入思考與研究。
從技術角度來看,目前基于大數據、機器學習等方式產生的人工智能算法,其內部仍然是一個“黑箱”,并不能從因果機制角度來判定其合理性、正當性。與此同時,由于數據本身的局限性、有偏性,加之社會意識形態與主流價值觀的影響,也可能導致算法出現偏差,甚至“算法歧視”,留下不當使用的漏洞。
要解決這一問題,就需要從根本上突破“算法透明”障礙。而這又要求人類樹立正確的倫理標準,營造良好的科研與市場競爭環境,鼓勵平臺公司和中小企業在相應倫理規范和法律法規的指引下積極開展研發活動,特別是能夠在人工智能基礎理論、核心算法上有所創新,有所突破。
-
人工智能
+關注
關注
1791文章
46872瀏覽量
237598 -
人臉識別
+關注
關注
76文章
4005瀏覽量
81772
原文標題:梁正老師《環球》雜志發文談人工智能安全防范問題
文章出處:【微信號:cistp2016,微信公眾號:CISTP科技政策中心】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論