企業IT和產品IT與標準化軟件的融合降低了惡意行為者的入侵門檻。適用于各種惡意軟件的入門工具包已然面市,最近更是得到了基于大語言模型(LLM),如ChatGPT等AI工具的加持。然而,Vector Consulting和Robo-Test研究認為,生成式人工智能也有潛力使現有系統及新系統更加強大和安全。
隨著企業IT與產品IT的融合,網絡攻擊及其帶來的影響不斷增加。圖1顯示工業物聯網領域受攻擊的增長幾乎呈指數級的趨勢[1,2]。而且,這些還只是已經通報的影響公共事業、工廠生產等相關場景的關鍵工業物聯網攻擊,還有大多數攻擊沒有被報告或被認為不相關。
圖 1:針對車輛的主要網絡安全攻擊
由于多種原因[1,2,3],汽車IT成為黑客的主要目標:
易于訪問,因為可以輕松觸及車輛來實施漏洞發掘而不被發現。
勒索軟件和支付帶來潛在好處,因為供應商和OEM擔心網絡攻擊成為新聞頭條。
三分之一的公司沒有既定的產品網絡安全計劃和專門的安全研發團隊。
三分之二的公司漏洞測試只涵蓋了不到一半的硬件和軟件。
以前的專有軟件被標準軟件堆棧和工具取代,從而允許使用標準黑客工具和知識,并且增加了攻擊窗口期。
系統和組件具有更多的始終在線、連接性和用于軟件更新的智能應用程序編程接口(API),從而允許遠程執行幾乎所有攻擊。
沒有網絡安全就沒有功能安全。隨著軟件和數據被操縱,系統的初始合格、驗證或認證結果不再得到保障。隨著網絡犯罪的激增,整車廠和供應商必須提供足夠的保護,防止其企業和產品IT系統被操縱。
網絡安全中的人工智能技術
人工智能(AI)將很快成為打擊網絡犯罪的主要工具,因為它有助于建立高效和有效的安全工程。網絡安全要求很高,需要系統化的流程。傳統方法需要大量的手動工作,例如可追溯性,當我們關注各行業的不一致性和不合理的測試時,會發現他們幾乎沒有系統化的部署。用于網絡安全的人工智能技術簡化了這些活動[4]。例如,從TARA和安全需求到安全測試的安全工程,在人工智能的輔助下實現了更好的一致性,進而有助于生成、驗證和關聯必要的工作產品。
為了有效減輕網絡安全風險,在安全生命周期內必須落實安全目標并使其在工作產品之間保持一致。可追溯性有助于保持一致性并降低責任風險。如果添加了新的需求,我們必須找出哪些設計部分需要修改或者哪些測試需要變更并重新運行。為此,三重峰模型將需求、設計和測試系統地聯系起來[3]。
在此方法論基礎上,生成式人工智能(GenAI)可以針對您提出的問題合成或生成對應的答案。自然語言處理(NLP),尤其是Transformer,為半自動安全分析、可追溯性和測試提供了新方法。特別是使用大語言模型(LLM)進行文本生成、匯總和分類,最近被證明有望提高安全分析和測試的效率和有效性[4]。雖然許多人已經嘗試過基于直接輸入問題的人機界面,但這個場景可以進一步自動化,從而將此類工具無縫集成到生產工具鏈中。
為了評估哪種基于人工智能的輔助將為網絡安全帶來最大收益,讓我們看看整個產品生命周期。圖2將安全生命周期顯示為獨立于底層開發方法的V模型抽象。灰色框描述了模型中各活動的抽象,藍色框顯示了我們識別到的一些基于人工智能的方法,這些方法可以支持網絡安全開發過程中的相關環節。
圖 2:安全工程中的人工智能和底層工具鏈
將生成式人工智能用于安全工程
為了將生成式人工智能實際應用于網絡安全工程,我們開發了Transformers和基于生成式人工智能的方法,用于網絡安全需求的規范化和測試驗證。我們在下述行業案例研究中的重點是使用生成式人工智能和NLP將行業需求與法規要求聯系起來。
在實踐中,我們使用帶有網絡安全語料庫的定制化大語言模型作為基本模型。在評估哪種大語言模型最適合作為基準點時,我們測試了他們在令牌預測方面的能力,尤其是與安全相關的文本。為了進一步提高模型的適配度,我們使用CAPEC(常見攻擊模式枚舉和分類)、CVE(通用漏洞披露)和NVD(美國國家漏洞數據庫)等數據庫對模型進行了微調,同時也使用了經過驗證的網絡安全論壇和博客的內容。該語料庫不包含客戶及專利數據,而且它會隨著外部數據源的變化而不斷增長。圖3 顯示了語料庫最初的數據分布,這種分布既不是來源于現成的方案,也不是行業或標準既定的方法,而是基于Vector Consulting Services過往15年的安全分析經驗。
在運行時,使用具有特定關聯的敏感數據對模型進行投喂。為了保護軟件免遭濫用和漏洞挖掘,它不會被存儲,當然也不會脫離我們本地化的大語言模型引擎。例如,關聯信息可以是為不同系統創建的TARA。這將有利于促進重用先前創建的TARA,并且進一步提高效率,TARA的某些部分通??梢灾貜褪褂茫驗楫a品設計中使用了相同或非常相似的組件。這種使用本地化數據的雙重方法會消耗大量內存、功耗和性能,但可以確保非常高的機密性。
圖 3:帶有網絡安全語料庫的定制化大語言模型
市場和產品需求通常存儲在應用程序或產品生命周期管理(ALM/PLM)數據庫中,可以使用ReqIF或Excel將它們導出到我們的大語言模型中。圖4顯示了在將結果轉移到專門的TARA工具之前,我們的大語言模型導出界面上的此類結果。根據此導出結果和其他關聯信息(例如基于啟發式的威脅目錄),AI會生成針對條目、威脅和攻擊路徑的建議。
隨后,生成的建議將加載到Vector COMPASS TARA工具中。緊接著,安全工程師將對其質量和準確性進行評估和評級。工程師還會決定GenAI工具給出的哪些建議將保留在TARA中,以及哪些應該被替換或刪除。如果TARA是完整的,則將數據存儲到白盒信息數據庫中。該白盒數據庫包含所有內部可用信息,稍后可用于執行白盒滲透測試。與此相反,灰盒數據庫僅包含公開可用的數據和常見的攻擊模式,他們將在灰盒滲透測試時被使用。根據需要執行的滲透測試類型,下一階段的人工智能將使用兩個或一個數據庫來建議攻擊或滲透策略。此策略信息用于對待測系統(SUT)進行攻擊,該攻擊通過使用CANoe測試環境或類似的集成測試框架來實現。
使用AI生成灰盒與白盒攻擊路徑是一種檢查方法,它可以查明有多少可用的與系統或組件相關的信息(例如SUT中使用的庫和依賴項)。將這些方法引入安全生命周期后,將有助于更好地對工具進行集成,以及實現敏捷交付流程中應對變更的快速部署,進而實現從TARA到安全需求和(回歸)測試用例的一致性。
圖 4:集成到開放的TARA接口
結論
關于網絡安全領域應用人工智能的一個提醒,請注意隱私和安全影響:
人工智能本身可能會成為風險,因為它可以更改或添加代碼。
人工智能可能會威脅您的知識產權,因為大多數模型都試圖捕獲您的數據。
許多人工智能工具,例如代碼生成和分析工具,通常會將數據反饋給工具供應商,從而嚴重影響知識產權和隱私。
您的專利代碼必須受到良好的保護,并且確保其不會離開您的私人數據庫。因此,我們建議您建立自己的大語言模型,并針對您的特定應用領域對其進行訓練。同時,避免使用GenAI建議的代碼或代碼片段。我們已經檢測到生成式AI工具和平臺在處理代碼時會插入不需要的代碼片段。此類片段可能看起來無風險,但存在引入后門、操縱數據或向外部目標提供信息的風險,例如庫調用和外部接口(例如 REST API)。如果您想重用代碼或嵌入生成的片段,請對所有外部代碼運行徹底的靜態分析以識別潛在的漏洞。
作者信息
Christof Ebert
Vector Consulting Services總經理,
德國斯圖加特大學教授。
Maximilian Beck
德國斯圖加特大學Robo-Test孵化器的人工智能企業家。
-
IT
+關注
關注
2文章
856瀏覽量
63473 -
網絡安全
+關注
關注
10文章
3132瀏覽量
59612 -
人工智能
+關注
關注
1791文章
46896瀏覽量
237657
原文標題:面向汽車網絡安全的生成式人工智能
文章出處:【微信號:VectorChina,微信公眾號:Vector維克多】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論