AI研究集團OpenAI上個月發表了一項不同尋常的聲明: 它表示自己已經構建了一個基于AI的內容創作引擎,其功能非常復雜,而OpenAI也不會向開發者公布完整的模型。
究其原因,任何在網絡安全領域工作的人都應該知道一二。Cofense Inc.的一項研究顯示,2016年,91%的網絡攻擊都是由釣魚郵件引發的。TruSTAR Technology LLC首席數據科學家Nicolas Kseib說,利用軟件機器人從社交網絡和公共數據庫中提取個人信息,并與強大的內容生成引擎結合起來,可能會產生更有說服力的釣魚電子郵件,甚至可能模仿某個人的寫作風格。
潛在的結果是:網絡犯罪分子可以以更快的速度和前所未有的規模發起網絡釣魚攻擊。
這種危險巧妙地總結了網絡安全目前所處的無休止的戰爭狀態,在這場戰爭中,還沒有人能夠回答一個核心問題:AI到底是會為犯罪分子提供更多幫助,還是會為網絡攻擊防御人員提供更多幫助?在一些人看來,AI是一種新武器,最終可能讓安全人員領先于對手。但與此同時,專家們擔心,機器學習和深度學習等人AI技術存在被非法濫用的可能性,從而帶來很嚴重的后果。
不過,這種爭議并沒有阻止網絡安全市場參與者繼續將AI作為一種營銷噱頭。本周,當網絡安全行業從業者們聚集在舊金山參加一年一度的RSA大會(RSA Conference)時,這一點將顯而易見。RSA大會是今年網絡安全行業中規模最大的會議之一。但在這個過程中,他們可能會對這項技術能帶來什么產生錯誤的期望。
MapR Technologies Inc.的著名技術專家、銀行業資深安全官員John Omernik表示說,如今被吹捧為AI的大多數技術不過是建立在單一數據類型基礎上的分類算法。國際數據公司(IDC)安全部門的研究主管Rob Westervelt也認為,“貓捉老鼠的游戲將繼續下去,因為攻擊者將能夠使用工具躲避防御。”
智能攻擊
事實上,很多攻擊者已經在利用各類工具了。盡管到目前為止,還沒有明確的主要由機器學習引發攻擊的記錄案例,但越來越多的證據表明,網絡犯罪工具正變得越來越智能。例如,去年7月b爆發的Rakhni木馬病毒的一個新版本就包含一個上下文感知功能,該功能安裝最適合它所感染的系統的惡意軟件。安裝了加密貨幣錢包的計算機也受到了勒索病毒的感染,而其他計算機則選擇了加密貨幣挖掘。Bitglass Inc.的產品營銷經理Jacob Serpa說:“這只是未來可能面臨的威脅的一個小例子。”
硅谷科技媒體SiliconANGLE聯系的大多數專家表示,機器學習和深度學習工具可以提高那些急需技能的從業者識別入侵和響應目標的能力,并加強對入侵的防御。但他們也指出,AI技術仍處于相對初級階段,犯罪分子還尚未充分挖掘其潛力。
隨著網絡犯罪日益猖獗,以及在暗網上提供的惡意培訓數據,這些因素都有可能推波助瀾。現在重要的是,組織開始理解AI在增強防御能力的同時,對局限性仍認識不清。
尋找模式
許多安全專家嘲笑用“智能”一詞來描述如今幾乎連兩歲兒童認知能力都沒有的技術。但他們也一致認為,機器學習和深度學習等領域可以為組織安全帶來價值。機器學習在跨非常大的數據集檢測模式方面很有用,而深度學習在圖像和語音識別等領域表現出色。
例如,安全操作中心要應對來自入侵檢測系統的大量錯誤警報。由于缺乏近200萬網絡安全專業人員,企業無法承受這些浪費的時間。IBM首席信息安全官Koos Lodewijkx說,企業安全數據中心(SOC)中近60%的活動是重復的:“檢測速度加快了,但響應仍然是人類的速度。”
機器學習算法可以通過訓練來發現日志數據中與惡意活動關聯可能性較高的模式,從而使網絡安全人員能夠更好地集中精力應對問題。對人類無法處理的海量數據進行梳理是機器擅長的一個領域,尤其是當它們具備機器學習和深度學習能力時,這使它們無需顯式編程就能學習。
網絡安全公司Arkose Labs的高級工程總監Anna Westelius說:“人類善于發現模式,但在處理檢測中看到的快速類型數據時,不可能將屬性和模式牢記在心。”“這就是大規模機器學習模型允許我們做的。”
機器學習的根源在于預測分析,它有助于提高人類操作員的工作效率。Balbix Inc.的數據顯示,《財富》(Fortune) 1000強企業目前平均擁有260多個潛在攻擊點,包括云服務、移動電話、“物聯網”設備和合作伙伴賬戶。
TruSTAR的Kseib說,模式檢測還可以通過將行為綁定到已知的用戶配置文件來檢測異常。他說:“當你與公司以外的人分享敏感信息時,你的系統可以檢測到,并觸發一系列防御行為,比如阻止這種行為。”
此外,機器學習可以應用于用戶和行為分析,這是一門為用戶活動建立基線并檢測偏離標準的學科。Experian Corp.去年進行的一項調查顯示,三分之二的受訪者認為這是他們的安全架構中最薄弱的一環。
DivvyCloud工程VP Scott Totman說:“大多數用戶不知道他們犯了錯誤,并從未被告知,從未指導如何糾正錯誤,也從未學會如何避免錯誤。”機器學習可用于識別不一致性并“創建一個教育最終用戶的反饋循環”。
深度學習(Deep learning)是人工智能的一個分支,近年來在語音和圖像識別方面取得了突破性進展,目前也正在成為網絡安全領域的一個關鍵武器。它可以提高對超定向“釣魚型”電子郵件的檢測,并加強生物識別等領域的訪問控制。
例如,Jumio Corp.就可以使用深度學習將圖像和文檔識別結合起來進行用戶身份驗證。該公司的技術將現場拍攝的自拍照片與政府頒發的身份證件進行對比,以驗證用戶的身份。該軟件可以根據圖像質量的變化以及用戶體重變化、面部毛發的增加或減少等因素進行調整。它還可以檢測表明ID被篡改的細微因素,比如字體的微小變化等。
供應商的奮起
公司很快就接受了AI的術語而,用戶也開始了對各類產品的購買。最近,受云端網絡探知及回應(Network Detection&Response)廠商ProtectWise Inc.委托,最近針對400多名安全專業人士進行的一項調查發現,73%的受訪者表示,他們已經實現了至少包含人工智能某些方面的安全產品。
然而,46%的受訪者表示規則創建和實施是一件苦差事,以及還有四分之一的受訪者表示他們不打算在未來實現對更多AI產品的支持,這種技術的相對不成熟是顯而易見的。
所以AI前景光明,但在某些領域,它幾乎沒有什么價值,甚至可能帶來新的漏洞。當問題領域是眾所周知的,并且變量變化不大時,機器和深度學習效果最好。算法擅長于檢測模式的變化,但不擅長識別新模式。Fidelis Cybersecurity Inc.的高級產品營銷經理Tom Clare說:“你發現未知情況真的很困難。”該公司專門從事威脅檢測和應對工作。
安全檢測網站SafetyDetective.com的數據顯示,自2013年以來,惡意軟件的發生率已經上升了5倍。改變變量可能會讓機器學習算法變得混亂,這也是迄今為止它們在打擊惡意軟件方面價值有限的原因之一。機器學習算法存在“固有的失敗,因為惡意軟件的訓練集變化太快” Malwarebytes 公司CTO Doug Swanson說道,“未來惡意軟件模型看起來會跟今天幾乎完全不一樣”。
AI模型依賴于大量高質量的源數據進行訓練,這可能會限制它們對已知威脅模式以外的所有威脅模式做出快速反應的能力。“說到底,(模型)可能又大又慢,”Jumio的首席科學家Labhesh Patel說。
這樣,結果的價值也只取決于用于培訓的數據。這就是為什么MapR的Omernik建議組織在供應商聲宣稱他們有一種全面的AI安全方法時要保持懷疑。
他回憶了自己在兩家不同銀行工作的經歷,一家是客戶主要在當地,而另一家客戶遍布世界各地。“人們會從非洲或俄羅斯的電腦上登錄,這很正常,”他說,這類活動會發送一個入侵檢測系統,該系統是硬連接的,可以考慮脫軌位置。
必須解決的黑箱
如果機器學習在對抗網絡威脅方面有用,它也不可能像通常那樣是一個黑箱(black box)。人們需要對模型進行持續的關注,以確保訓練數據是完整的、相關的,并且不受攻擊者的影響。引入錯誤或誤導性數據會導致結果退化或更糟。Arkose Labs的Westelius說:“如果人們對這項技術過于依賴,它最終會自我學習。”“但機器學習可以重新訓練自己,讓自己認為正常的行為不再是正常的。”
此外,計算機的工作原理也有一些細微的差別,這與人類的邏輯相悖。例如,研究人員已經演示了通過在普通人類語言甚至音樂中嵌入隱藏的命令來愚弄語音助手的方法,比如亞馬遜的Alexa和蘋果的Siri。自動駕駛汽車系統可能會認錯道路標志,因為只是實驗人員貼上了一些幾乎不會引起注意的小貼紙。
其結果是:強化企業防御的工具也可以被用來以新穎的方式攻破它們。以XEvil為例,它是一種可以用來破譯扭曲和模糊字符的驗證碼,準確率高達90%。其是一種基于深度學習的機器視覺軟件的副產品,該軟件是用來指導自動駕駛汽車的,并還可以用來擊敗密碼身份驗證系統中常見的第二道防線。
對一切開放?
像許多AI模型一樣,XEvil是開源的,使得“好家伙”和“壞家伙”都可以在其基礎上進行簡單的構建。無論是好是壞,大多數流行的機器學習模型都已發布到開源軟件中,這意味著無法知道誰在使用它們。
這一事實引發了IBM Lodewijkx的不祥警告。“知識和技能正在民主化,”他指出。編程技能歷來都是基于數據庫的,但是機器學習中常見的基于模型的方法正迅速成為主流。“我們從大學雇傭的孩子們已經改變了他們的編程技能,”他說。“這也會影響犯罪方面。”
機器學習擅長檢測模式的變化,但這種技術也可以用于覆蓋軌跡。DivvyCloud的Totman說:“目前,許多罪犯的簽名都是基于他們一貫的犯罪行為。”“罪犯可以利用機器學習隨機化他們的模式,混入其中以避免被發現。”
反惡意軟件制造商擔心AI可能會制造出自變異的惡意軟件,“這種軟件可以調整檢測到的惡意軟件的代碼,編譯并重新部署,以避免進一步的檢測,”Malwarebytes實驗室主任Adam Kujawa說。“這可能發生在眨眼之間,大大增加了我們經常處理的惡意軟件的數量。”
大規模假新聞
隨著網絡犯罪日益成為專業人士和“網絡流氓”的領地,AI的潛在濫用問題變得更加令人不安。2016年美國總統大選期間出現的虛假新聞現象,由于“深假(deep-fake)”技術的出現而變得更加嚴重。“深假”技術通過對圖像、視頻和聲音文件的處理,使事件和行為看似從未真正發生過。到目前為止,這些應用僅限于讓名人處于尷尬之中,但同樣的技術同樣能應用于損害高管和政治人物的聲譽。
這又回到了誰將從AI中獲益更多的問題:白帽子(white hats, “白客”)還是黑帽子(black hats, “黑客”)?
目前還沒有達成共識。幾乎所有人都同意的一點是,新工具將提高正在進行的軍備競賽的利害關系。IDC的Westervelt表示:“攻擊者將利用AI來創建更好的釣魚郵件,但安全公司也將更善于發現它們。”
以同樣的方式,云計算使強大的計算機和軟件可為一般公司與群眾所用,而收益于AI民主化安全工的受組織卻往往防御薄弱,Mark Weiner,Balbix的CMO說道。“我認為它會幫助支持很多不那么成熟的組織,其好處大于它會帶給壞家伙的機會”,他補充到。
網絡安全類風投公司Allegis Cyber管理總監Robert Ackerman認為,攻擊者日益成熟,將迫使組織更多地集中精力保護數據,而不是防止滲透。他說,如今的網絡安全實踐是“一道有1000個漏洞的堤壩,而我們正四處奔走,試圖將它們全部堵住”。
有一些希望。Ackerman繼續說到,同態加密( homomorphic encryption)等技術將受到青睞。同態加密技術使數據能夠在加密狀態下進行處理。還有另一些人則看到了對抗性機器學習的潛力,它讓模型相互競爭,以試圖加強防御。
但所有這些活動都是在多云、移動設備和無數物聯網設備的使用帶來的復雜性日益增加的背景下進行的。這可不是好兆頭。Westervelt說:“連CIO都想對他們的數據進行更精細地控制,更不用說人們如何共享和使用這些數據了,這變得非常復雜。”
在網絡安全領域,復雜性是罪犯們最好的朋友。
評論
查看更多