隨著人工智能的不斷發展與落地,用戶隱私問題越來越受到重視。近日,人工智能大數據公司因為違反相關法規而被罰巨額罰款,用戶隱私問題再次回歸大眾視野。人工智能企業在分享數據的同時應遵守哪些道德原則?隱私保護法規對于AI的發展與落地而言是機遇還是挑戰?更強大的數據保護法規是否會減緩AI的發展速度?在日前召開的第28屆國際人工智能聯合會議(IJCAI)上,業內專家提出了當今各行業在處理數據、實現AI落地需要共同面對的多個問題。
“在《通用數據保護條例》等隱私保護條款實施的前提下,數據處理與隱私保護并不是一場‘零和博弈’的關系,二者的關系需要被正確對待,以實現雙贏的局面。”華盛頓大學教授、D. E. Shaw機器學習團隊董事總經理兼負責人佩德羅多明戈斯認為,企業在處理數據時,不要被數據的力量沖昏了頭腦,需要重點考慮用戶的知情權,承擔起相應的社會責任。
如何解決AI應用中出現的“數據孤島”和用戶隱私難題?國際人工智能聯合會議2019理事會主席、微眾銀行首席人工智能官楊強給出了解決方案:“聯邦學習或是解決這兩個核心問題的同一個解決思路。”
什么是聯邦學習?“在保護數據隱私、滿足合法合規要求的前提下,繼續進行機器學習,這部分研究被稱為聯邦學習。”楊強說,開始聯邦學習的背景是歐盟通過了《數據隱私保護條例》。該條例要求公司在使用數據前要先向用戶聲明模型的作用,這份條例的實行讓許多大數據公司在數據交流方面非常謹慎,這對于極度依賴數據的機器學習是一個巨大的挑戰。
“聯邦學習希望在不共享數據的前提下,利用雙方的數據實現模型增長。”楊強舉例,假設兩家公司想要建立一個用戶畫像模型,其中部分用戶是重合的。聯邦學習的做法是,首先通過加密交換的手段,建立用戶的識別符并進行溝通,在加密狀態下用減法找出共有的部分用戶。因為關鍵用戶信息并沒有得到交換,交換的只是共有的識別符,因此這并不違反《數據隱私保護條例》。然后,雙方將這部分數據提取出來,將各自擁有的同樣用戶的不同特征作為輸入,迭代地進行訓練模型、交換參數的過程。多項測試證明了給定模型參數,雙方不能互相反推出對方擁有的、自己沒有的特征,因此用戶隱私仍然得到了保護。在不違反《數據隱私保護條例》的情況下,雙方的模型性能都得到了提高。
“數據安全和用戶隱私目前已成為大數據時代的兩大挑戰,對于金融、醫療及法律等數據敏感行業更甚,聯邦學習可以解決這兩大問題。”微眾銀行AI部高級研究員劉洋介紹。
目前,聯邦學習已經應用于多個行業的業務板塊。未來,AI與用戶隱私的平衡問題會持續伴隨AI的發展。楊強表示,新一代的機器學習算法框架,需以保護隱私、安全合規為出發點,用透明的機制來保障人工智能的健康發展,聯邦學習的發展提供了新思路。
-
人工智能
+關注
關注
1791文章
46896瀏覽量
237670 -
機器學習
+關注
關注
66文章
8382瀏覽量
132444
發布評論請先 登錄
相關推薦
評論