當前網絡安全領域攻擊與防御的協同進化如火如荼。像人工智能(AI)和機器學習(ML)這種先進的技術同時為惡意的攻擊者也帶來了攻擊技術演進的機會。簡單來看,對網絡安全的需求比以往任何時候都更加重要。AI/ML工具在幫助抗擊網絡犯罪方面可能走了很長一段路,但是這些技術并非無所不能,也會被惡意黑客利用。人工智能將致力于極大地提高網絡安全性,但黑客也可將其用于網絡犯罪活動,這是對網絡安全的真正威脅。AI可以有效地分析用戶行為,推導模式并識別網絡中的各種異常或不正常情況。有了這些數據,可以快速輕松地識別網絡漏洞。反之,現在依賴于人類智能的職責將易于受到模仿合法的基于AI算法的惡意程序的攻擊。一些企業正在熱衷于將其基于AI/ML的概念或產品推向市常但AI/ML的局限性,導致他們可能會忽略算法正在產生錯誤或虛假的安全感。
1
網絡安全行業AI應用火熱
技術和業務領導者已將網絡安全行業作為當今企業中人工智能(AI)和機器學習(ML)的頂級高級用例之一。根據最新研究,在未來五年里,網絡安全中的AI技術有望以每年23%的速度增長。到2026年,網絡安全AI市場將從去年的88億美元增長到382億美元。
2020年,網絡安全領域的AI將顯著增長。根據Capgemini去年的《用人工智能重塑網絡安全》報告研究結果顯示,在2019年之前,只有五分之一的網絡安全組織在其技術棧中使用了AI。但是Capgemini的研究人員表示,AI采用率將直線上升,大約有63%的組織計劃在2020年底之前部署AI。最具有潛力的用例是在運營技術(OT)和物聯網(IoT)。
2
AI在網絡安全行業的優勢
人工智能可能會是網絡安全的救星。根據Capgemini研究結果顯示,80%的公司都依靠AI來幫助識別威脅和阻止攻擊。這是一個很大的要求,因為實際上,很少有非專家真正了解AI對安全的價值,或者該技術是否可以有效解決信息安全的許多潛在用例。
發現新型惡意軟件并不是部署機器學習以提高網絡安全性的唯一方法:基于AI的網絡監視工具還可以跟蹤用戶的日常行為,從而了解其典型行為。通過分析此信息,AI可以檢測異常并做出相應的反應。
領先的網絡安全公司Darktrace使用機器學習來檢測威脅,該公司聯合首席執行官Poppy Gustafsson表示,“人工智能使我們能夠以一種智能的方式做出反應,了解違規行為或行為改變的相關性和后果,并實時制定相應的反應。”
據悉,Darktrace的工業免疫系統是一項尖端創新,可為運營技術實施實時的“免疫系統”,并實現傳統網絡防御方法的根本轉變。該系統以貝葉斯數學和無監督機器學習為基礎,對復雜的網絡環境進行分析,以了解每個網絡,設備和用戶的“生活模式”。該技術不依賴于過去的攻擊知識,而是像人類免疫系統一樣運作,并且可以通過檢測預期行為的細微變化來發現以前未知的威脅。
網絡安全主管越來越相信AI對于增加響應時間和降低預防漏洞的成本至關重要。根據Capgemini的《用人工智能重塑網絡安全》研究,四分之三的高管表示,網絡安全領域的AI可以加快對漏洞的響應速度,無論是在檢測還是補救方面。約有64%的人表示,這也降低了檢測和響應的成本。
盡管人們對過度依賴AI存有疑慮,但人們似乎正在為一種中庸之道建立共識,AI并不是魔杖,而是一種有助于增強SOC和整個安全組織的人類智能(HI)的有用方法。根據White Hat的《人工智能與人類要素安全情感研究》,大約70%的安全專業人員同意AI通過消除多達55%的手動任務來提高團隊效率。這有助于他們專注于更重要的任務并減輕壓力水平。
3
AI在網絡安全行業的局限
經驗豐富的網絡安全專家們現在正在研究的問題是:“人工智能到底能在多大程度上幫助改善安全狀況和安全運營?”AI在網絡安全中的成熟度到底如何?它能取代安全團隊嗎?網絡安全行業在2020年的發展很大一部分將是如何有效平衡人工智能(AI)和人類智能(HI)。
網絡安全是否會信任AI?
盡管AI驅動的網絡安全不斷向前發展,許多安全專業人員仍認為,人類智能(HI)仍將根據具體情況提供最佳結果。白帽安全公司(White Hat Security)在RSA大會上進行的一項最新《人工智能與人類要素安全情感研究》表明,60%的安全專業人員仍然對由人類驗證的網絡威脅結果比人工智能生成的結果更有信心。大約三分之一的受訪者表示,直覺是推動人類分析的最重要的人為因素,21%的人認為創造力是人的優勢,20%的人認為以前的經驗和參考框架是使人們對安全操作流程至關重要的因素。
網絡安全AI真的準備就緒?
Osterman Research的《網絡安全中人工智能現狀》研究表明,在部署的早期階段,部分問題是人們強烈認為AI尚未準備就緒。一些常見的投訴包括結果不準確的問題、在端點上放置某些類型的AI平臺的性能權衡、使用困難以及對誤報的擔憂。
無法訓練AI達到專家級水平?
網絡安全專家認為,他們對人工智能的過度依賴也令人擔憂,因為他們認為他們所做的工作過于復雜,無法被機器復制。去年Ponemon的《自動化時代IT安全功能的人員配置》報告調查結果顯示,超過一半的安全專家表示,他們將無法訓練AI來完成其團隊執行的任務,并且他們更有資格實時捕獲威脅。幾乎一半的人還報告說,人為干預是網絡保護的必要條件。
AI可否取代專業的安全人員?
但是,盡管AI和ML確實為網絡安全提供了好處,但對于組織而言,重要的是要認識到這些工具并不能代替人類安全人員。因此,關于AI將解決網絡技能危機的任何想法都具有廣泛意義。實際上,這些解決方案通常需要安全團隊花費更多的時間,這一事實經常被忽略。
例如,基于機器學習的安全性工具可能會被錯誤地編程,從而導致算法遺漏意外甚至明顯的事情。如果該工具由于沒有經過編碼以考慮某些參數而錯過了特定類型的網絡攻擊,那將會導致問題。確實,AI和ML可能會產生其他問題,因為盡管這些工具有助于防御黑客,但網絡犯罪分子自己很有可能會使用相同的技術來使攻擊更加有效。
例如,可以使用ML自動發送網絡釣魚電子郵件,并學習在活動中使用哪種語言,生成點擊的原因以及應如何針對不同目標進行攻擊。
例如,以異常檢測為例。對于安全運營中心分析人員而言,能夠發現網絡中的任何“壞東西”確實很有價值,并且機器學習可以很好地解決此問題。但是,找到比以前更多“壞東西”的算法可能并不像聽起來那樣好。所有ML算法都有一個誤報率(當事件是良性事件時將其標識為“不良”),其值是各種所需行為之間權衡的一部分。因此,仍然需要人工來分類這些結果,而且算法發現的“錯誤”越多,團隊成員需要評估的事件就越多。
這并不是說這對于熟悉ML的人來說是一個特別令人驚訝的結果,只是對于那些希望采用這些解決方案的團隊來說,這并不一定是常識,這可能導致人們對ML可以為他們節省多少時間的期望過高。
盡管上面的示例是關于如何將ML算法直接用于完成安全團隊的某些工作的示例,但是算法也可以用于幫助用戶避免犯可能帶來風險的錯誤,從而間接地為他們提供幫助。這種方法之所以令人興奮,是因為它開始著眼于減少進入渠道的可能事件的數量,而不是試圖在事件最終導致安全事件時識別并減輕它們。不僅僅是解決最明顯的問題,從長遠來看,這些問題可能會帶來預期的結果。
考慮ML時,另一個容易忽略的問題是數據問題。任何ML算法只有在有足夠的數據可供學習時才能工作。學習需要時間。試想,在識別貓之前,您需要顯示多少張互聯網貓圖片?模型開始運行之前,算法需要運行多長時間?學習過程所花費的時間可能比預期的長得多,因此安全團隊需要考慮這一點。此外,對于某些用例而言最佳的標記數據在安全性方面供不應求。這是另一個需要“人員參與”來對安全事件進行分類并協助算法訓練的領域。
責任編輯:tzh
-
網絡安全
+關注
關注
10文章
3129瀏覽量
59607 -
AI
+關注
關注
87文章
30172瀏覽量
268432 -
人工智能
+關注
關注
1791文章
46872瀏覽量
237596
發布評論請先 登錄
相關推薦
評論