精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

鑒源實驗室·如何通過雷達攻擊自動駕駛汽車-針對點云識別模型的對抗性攻擊的科普

上海控安 ? 來源:上海控安 ? 作者:上海控安 ? 2024-11-05 15:44 ? 次閱讀

01

引 言

隨著自動駕駛技術的迅速發展,雷達和激光雷達等傳感器在自動駕駛汽車中的作用愈發重要。它們能夠生成3D點云數據,幫助車輛實時感知周圍環境并做出安全決策。然而,盡管這些傳感器對駕駛環境的檢測非常精確,它們也面臨一種新興的威脅——對抗性攻擊。

對抗性攻擊是一種通過微小但精心設計的擾動,旨在欺騙機器學習模型的攻擊方式。對于自動駕駛系統而言,這意味著通過對傳感器輸入的數據進行極小的修改,攻擊者可以導致自動駕駛汽車對其周圍環境作出錯誤的判斷。例如,在點云識別模型中,攻擊者可以通過擾動點云中的數據,使得車輛無法正確檢測障礙物或行人,從而引發嚴重的安全事故。

這種攻擊方式的危險在于,擾動往往非常微小,但它足以誤導深度學習模型。例如,通過使用針對3D點云的對抗性攻擊,攻擊者可以制造虛假目標,或隱藏真實目標,使車輛在物理世界中無法正確響應。這些攻擊不僅對自動駕駛的安全性構成重大威脅,也對自動駕駛系統的魯棒性提出了新的挑戰。

隨著對抗性攻擊技術的不斷演進,了解并防御這些攻擊變得尤為關鍵。本篇文章將重點介紹如何通過雷達對抗性攻擊來影響自動駕駛汽車的點云識別模型,揭示其潛在的危害。

02

針對點云識別模型的對抗性攻擊

2.1 2D對抗性攻擊方法向3D點云模型遷移的挑戰與難點

2014年,Goodfellow等[1]的研究指出,在待識別圖片中巧妙地加入一定的噪聲,會使得圖像被神經網絡誤分類。同時,該研究也揭示了神經網絡的脆弱性,使得神經網絡的攻擊方法成為了近年來深度學習的研究熱點之一,隨后,出現了大量針對圖像的對抗性攻擊方法。如Su等嘗試使用更改圖像的單個像素的方式完成對神經網絡的攻擊,該方法通過改變圖像中的單個像素觀察神經網絡輸出概率的方式,搜索最終生成對抗樣本需要更改的像素,Wang等提出一種使用替代模型訓練可遷移的對抗樣本的方法,通過訓練一定數量的替代網絡生成可遷移的對抗樣本。

但這些方法都難以直接遷移應用至點云識別模型的攻擊中:首先,2D的圖像和3D的點云數據結構上存在巨大的差異,2D圖像中的像素是有序的,按行列排布,而3D點云數據中的點是無序的,點的排列順序對點云的幾何結構沒有影響。這使得許多直接基于像素位置的2D方法無法簡單遷移到3D點云中,因為點云沒有固定的排列結構。另外,3D點云相比于2D圖像通常更加稀疏。點云中的每個點可能包含有限的鄰居點,而2D圖像中的每個像素通常都有固定數量的鄰居。這種稀疏性增加了在3D點云上生成有效對抗性樣本的難度。還有,2D圖像和3D圖像的坐標空間不同,在2D圖像中,像素位于離散的二維網格中,而3D點云的數據位于連續的三維空間中。攻擊者在2D圖像上進行的像素擾動非常直觀,而在3D空間中,修改點的坐標會影響物體的形狀、姿態和幾何結構,使得在生成對抗性樣本時需要更復雜的幾何變換。3D點云模型對旋轉和平移等幾何變換相對敏感。使得對抗性攻擊在3D點云模型上相比于2D圖像識別模型更容易受到空間和角度的變化所影響最終導致失效。最后,3D模型的對抗性攻擊相比于2D模型計算量更大,3D數據的處理往往比2D圖像復雜得多,計算成本更高。在生成對抗性樣本時,算法需要處理大量點,這顯著增加了時間和資源的消耗。

2.2 針對點云識別模型的對抗性攻擊算法介紹

雖然將2D模型的對抗性攻擊方法遷移至3D點云的攻擊方法存在諸多挑戰,但還是有研究人員成功地將應用于2D模型的對抗性攻擊方法遷移到了針對3D點云模型的方法中。Xiang等[2]提出了一種基于C&W的攻擊方法,稱之為3DAdv。3D Adv采用了C&W作為尋找對抗性特征使用的待優化函數,采用Chamfer距離用于衡量兩個點云之間的相似性,通過梯度下降的方法求解出最后的對抗性特征。3DAdv采用了Chamfer距離來度量原始點云與擾動點云的相似性:這使得擾動后的點云在幾何結構上依然保持與原始點云的高度相似,同時允許針對特定點的微小擾動,采用Chamfer距離很好地解決了L2范式等方法無法應用于評估點云之間的相似度問題,一定程度上解決了3D點云的無序性問題和稀疏性問題。3D Adv雖然在一定程度上解決了點云數據和圖像數據特征不一致的問題,但其難以在現實世界中復現,另外還存在生成的計算復雜度高、適用范圍有限等局限性。

wKgaomcpzJ6Afoj9AAJUsPmiLZ4622.png

圖 1 3D Adv可視化效果[2]

另外也有其它的研究者另辟蹊徑,選擇使用別的方法生成對抗性的點云。比如Harmi等[3]就通過對抗性生成網絡進行對抗性點云的生成,對抗性生成網絡由兩個部分——生成器和判別器組成,生成器負責生成對抗樣本,判別器用于評估這些樣本的真實性。AdvPC 通過這種對抗性訓練,生成在幾何上與原始點云相似但能夠欺騙分類器的對抗樣本。通過這種方法生成的樣本具有魯棒性強、可遷移性強的特點:傳統的基于梯度的對抗性攻擊通常需要對目標模型進行專門優化,生成的對抗樣本難以在不同模型之間通用。AdvPC通過生成模型,能夠生成對多個模型都有效的對抗性樣本。換句話說,生成的對抗樣本具有較強的可遷移性,在不同的3D點云分類器中依然能夠誤導模型。另外,由于AdvPC結合了生成對抗網絡的強大能力,它生成的對抗樣本在一定的旋轉、平移或噪聲干擾下仍然能夠保持有效。相比于直接的梯度攻擊,AdvPC生成的對抗性樣本更能適應實際的物理環境變化,適合在現實應用中使用。但是,AdvPC也存在自己的局限性:由于GAN的訓練過程本身較為復雜,AdvPC的實現需要大量計算資源,尤其在生成高質量的對抗樣本時,訓練過程可能會消耗大量時間。另外,盡管AdvPC在數字環境中的效果顯著,但將這些對抗樣本應用于物理世界(如激光雷達數據)時,可能仍需要克服一些現實中的傳感器噪聲和環境變化。

wKgaoWcpzKWARmKvAAKo2ArCZd8762.png

圖2 AdvPC算法流程[3]

3DAdv和AdvPC除去自身的局限性,他們還難以應用于黑盒攻擊的場景下。3DAdv需要知道模型的梯度信息,AdvPC需要知道數據的輸入特征,在目標模型的信息完全未知只能知道目標模型的輸入輸出的情況下這種白盒的方法無法應用。為了解決這一問題,Cao等[4]提出了EvolutionAdv,EvolutionAdv 通過進化算法逐步優化對抗性樣本。進化算法模擬自然選擇過程,生成一組隨機的擾動樣本,并通過選擇、變異和交叉操作,不斷改進樣本,使它們逐漸演化為能夠有效欺騙模型的對抗性樣本。EvolutionAdv 假設攻擊者無法訪問目標模型的內部結構或參數。因此,EvolutionAdv 不需要知道模型的細節,僅依賴模型的輸出來優化對抗性樣本。相比于前文提到的3DAdv和AdvPC,EvolutionAdv無需了解模型的內部結構、梯度或參數。這使得它非常適合攻擊那些對外界保密的模型,如商用模型或云端提供的深度學習服務。但同樣的EvolutionAdv同樣存在計算上比較復雜,生成對抗樣本的時間較長,效率較低等問題。

wKgaoWcpzK2AN6KkAAHWozxC9hw430.png

圖3 Evolution Adv攻擊效果可視化[4]

除去直接修改點云的方式以外,還有一種利用幾何變化的對抗性攻擊方法TSI[5],它的核心思想是通過利用三維幾何變換保持對抗性樣本在不同幾何條件下的有效性。在獲取點云后,TSI會對輸入的點云進行多次幾何變換,并在每次變換后通過優化調整對抗性擾動,使得每次變換后的樣本都能繼續誤導模型。通過使用最小化光譜范數作為評估攻擊前后的相似性,TSI能夠增強對抗性樣本的幾何魯棒性,確保它們在面對旋轉、平移等變換時依然能有效欺騙目標模型。這種方法在自動駕駛和機器人等應用場景中具有重要意義,因為它能夠處理動態的3D環境,并提高對抗性樣本的實用性。然而,TSI的計算復雜度和物理實現挑戰仍然是該方法需要進一步解決的問題。

wKgZoWcpzLOAB0DaAAGgeIUCA8I796.png

圖4 TSI攻擊可視化效果[5]

2.3 小結

在本章中,我們回顧了針對3D點云識別模型的幾種主要對抗性攻擊方法及其各自的特點和局限性。相較于2D圖像的對抗性攻擊,3D點云數據在無序性、稀疏性以及三維空間的幾何特性等方面增加了攻擊難度。3DAdv方法通過Chamfer距離保持幾何相似性,以解決點云無序性和稀疏性帶來的問題,但其高計算復雜度限制了應用的廣泛性;AdvPC基于生成對抗網絡生成對抗性點云,雖然具有較強的可遷移性和魯棒性,但在物理環境中的表現仍需進一步提升;EvolutionAdv利用進化算法生成對抗樣本,避免了白盒攻擊的限制,但在計算效率上存在不足;TSI通過幾何變換增強對抗樣本的魯棒性,在動態環境中表現出色,但也面臨著計算復雜度和物理實現的挑戰。

這些方法從不同角度出發解決了3D點云對抗性攻擊中的部分難題,但每種方法都有其適用的場景與限制。未來的研究可以進一步優化這些算法,以降低計算成本、提升對抗性樣本的魯棒性,并增強其在實際應用中的可操作性。在3D點云識別領域,對抗性攻擊的研究仍有廣闊的探索空間,這不僅能夠揭示模型的脆弱性,也為提高模型的安全性和魯棒性提供了方向。

03

總 結

雖然現今已經存在不少理論上可以對點云模型進行攻擊的對抗性算法,但這些算法在實際應用中仍然面臨諸多挑戰。首先,理論上的對抗性攻擊大多是在理想的實驗條件下實現的,實際環境中的復雜性和不確定性(如傳感器噪聲、動態光照條件、目標物體的多變性等)可能導致對抗樣本失效。特別是在自動駕駛場景中,車輛需要處理不斷變化的外部環境,對抗性樣本必須具備較強的魯棒性,才能在現實條件下誤導系統。

此外,物理可實現性仍是一個重要的瓶頸。許多對抗性攻擊算法是在數字空間中操作點云數據,而當這些擾動點云轉換到物理環境中(如激光雷達、相機等傳感器實際捕捉的物體),其攻擊效果可能會大打折扣。攻擊樣本必須經過調整,以確保在不同的物理傳感器和環境條件下仍能保留其對抗性。同時,點云數據的稀疏性和無序性也對攻擊算法的物理實現提出了新的挑戰,如何在物理世界中精確施加微小的擾動來影響3D點云仍然是一個未解決的問題。

其次,計算復雜度和資源消耗問題在實際應用中尤為突出。大多數對抗性攻擊算法需要經過多次迭代和優化,才能生成有效的對抗性樣本,這在計算資源有限或要求實時處理的自動駕駛應用中是一個巨大挑戰。例如,EvolutionAdv 等基于進化算法的方法,雖然在黑盒攻擊中表現優異,但其迭代過程復雜,生成對抗樣本所需的時間過長,難以滿足實時性要求。類似的,AdvPC 依賴于生成對抗網絡(GAN),雖然提高了對抗樣本的可遷移性和魯棒性,但GAN的訓練開銷巨大,尤其是在處理大規模3D點云數據時,計算資源需求較為龐大。

最后,3D點云對抗性攻擊的可解釋性與安全性依然是亟待解決的問題。對抗性攻擊的生成過程往往涉及復雜的數學優化和大量計算,使得對抗樣本的行為難以理解和預測。這種可解釋性缺失使得自動駕駛系統設計者難以預防攻擊,甚至在攻擊發生后也難以追溯根源。此外,在實際應用中,為了確保車輛和行人安全,必須在算法開發階段和模型部署前引入有效的防御機制。然而,現有防御方法在3D點云數據上效果有限,大多是針對2D圖像的算法簡單延伸,尚未針對3D點云特性設計出適應性強的防御策略。因此,盡管已有多種理論上的對抗性攻擊算法被提出來,如何在真實的自動駕駛場景中實現穩定有效的攻擊仍存在巨大挑戰。未來的研究可以集中在提高對抗性攻擊算法的物理可實現性、增強其魯棒性和可解釋性、以及設計更高效的計算方法上,以應對自動駕駛和其他應用場景中的實際需求。同時,研究社區也需要開發針對3D點云的專門防御策略,以在對抗性威脅下保護自動駕駛系統的安全和穩定性。

參考文獻:1. Goodfellow I J, Shlens J, Szegedy C. Explaining and harnessing adversarial examples[J]. arXiv preprint arXiv:1412.6572, 2014.2.Xiang C, Qi C R, Li B. Generating 3d adversarial point clouds[C], 2019.3.Hamdi A, Rojas S, Thabet A, et al. Advpc: Transferable adversarial perturbations on 3d point clouds[C], 2020. Springer.4.Cao Y, Xiao C, Yang D, et al. Adversarial objects against lidar-based autonomous driving systems[J]. arXiv preprint arXiv:1907.05418, 2019.5.Zhao Y, Wu Y, Chen C, et al. On isometry robustness of deep 3d point cloud models under adversarial attacks[C], 2020.

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 雷達
    +關注

    關注

    50

    文章

    2897

    瀏覽量

    117299
  • 激光雷達
    +關注

    關注

    967

    文章

    3938

    瀏覽量

    189593
  • 自動駕駛汽車

    關注

    4

    文章

    376

    瀏覽量

    40814
收藏 人收藏

    評論

    相關推薦

    FPGA在自動駕駛領域有哪些應用?

    低,適合用于實現高效的圖像算法,如車道線檢測、交通標志識別等。 雷達和LiDAR處理:自動駕駛汽車通常會使用雷達和LiDAR(激光
    發表于 07-29 17:09

    谷歌的自動駕駛汽車是醬紫實現的嗎?

    看到新聞報道說谷歌自動駕駛汽車已經行駛近30萬公里了,非常的強大~~上次參加了重慶新能源汽車峰會,對會上富士通半導體宣講的一款全景視頻汽車實時監控技術平臺似乎看到了
    發表于 06-14 16:15

    [科普] 谷歌自動駕駛汽車發展簡史,都來了解下吧!

    領導了X實驗室的數個項目,其中包括谷歌眼鏡和街景地圖。特倫從谷歌離職,創辦了教育創業公司Udacity。  特倫在斯坦福大學開始研究自動駕駛汽車,領導著一個有學生和教職員組成的團隊,設計Stanley
    發表于 10-25 11:08

    自動駕駛的到來

    攻擊方式有幾種,一是攻擊自動駕駛的外部傳感器,科恩實驗室對于特斯拉的模擬攻擊實驗是一個很好的例
    發表于 06-08 15:25

    無人駕駛自動駕駛的差別性

    自動駕駛領域,目前有兩大技術路徑:一是以特斯拉等汽車廠商為代表的“輔助駕駛”升級路線,其探測技術基礎是攝像頭(機器視覺)、毫米波雷達、超聲雷達
    發表于 09-28 16:50

    即插即用的自動駕駛LiDAR感知算法盒子 RS-Box

    和 RS-LiDAR-Algorithms 感知算法三大部分組成。RS-Box 獨立運行RS-LiDAR-Algorithms 感知算法,為自動駕駛提供高精度實時定位、障礙物識別
    發表于 12-15 14:20

    汽車防撞雷達的專家做進一步解讀特斯拉電動車的自動駕駛系統

    和車頭的防撞雷達構成。據悉,攝像頭是一家以色列公司Mobileye提供,而防撞雷達由德國著名的BOSCH公司提供。自動駕駛系統通過對攝像頭和雷達
    發表于 09-03 11:38

    自動駕駛汽車的定位技術

    自動駕駛定位技術就是解決“我在哪兒”的問題,并且對可靠性和安全性提出了非常高的要求。除了GPS與慣性傳感器外,我們通常還會使用LiDAR與高精地圖匹配,以及視覺里程計算法等定位方法,讓各種定位法
    發表于 05-09 04:41

    為什么網絡攻擊無法與自動駕駛相匹敵

    黑客出現以來的處理方式。只有當一家公司受到攻擊時,其他公司才會開始做出反應,通常是爭先恐后的提高自己的安全性,希望自己的生意不會成為下一個目標。  自動駕駛車輛標志著這一戰略已經發生改變的全新里程碑
    發表于 07-07 11:41

    如何應對針對自動駕駛汽車的網絡攻擊案件

    日本警方計劃研究如何應對可能發生的針對自動駕駛汽車的網絡攻擊案件。
    的頭像 發表于 12-27 14:02 ?3330次閱讀

    抗壓縮對抗框架ComReAdv:可讓人臉識別算法失效

    回書說到,現在,對抗攻擊的理念已經被應用到隱私保護領域:通過給照片添加肉眼看不出來的對抗性噪聲,來蒙蔽人臉識別AI,達到保護隱私的效果。
    發表于 08-19 16:50 ?599次閱讀
    抗壓縮<b class='flag-5'>對抗</b>框架ComReAdv:可讓人臉<b class='flag-5'>識別</b>算法失效

    關于3D針對失真的穩健性的系統性研究

    3D 廣泛應用于 3D 識別技術中。一些特別的應用領域往往對 3D 識別的安全性有更高的
    的頭像 發表于 03-15 11:34 ?1745次閱讀

    如何應對自動駕駛對抗性攻擊

      攻擊者無法直接訪問AI模型》僅在目標ECU中間接訪問有時加密的軟件   有時混淆(供應商的財產保護)   高度優化的CPU架構--沒有反編譯器,甚至沒有反匯編程序
    發表于 06-07 10:07 ?294次閱讀
    如何應對<b class='flag-5'>自動駕駛</b>的<b class='flag-5'>對抗性</b><b class='flag-5'>攻擊</b>?

    NVIDIA 自動駕駛實驗室:如何通過 AI 分割模型增強自動駕駛安全性

    編輯注:NVIDIA 自動駕駛實驗室系列視頻,將以工程技術為重點的視角關注實現自動駕駛汽車的各個挑戰以及 NVIDIA DRIVE AV 軟件團隊如何應對這些問題。 對于
    的頭像 發表于 06-16 11:45 ?659次閱讀
    NVIDIA <b class='flag-5'>自動駕駛</b><b class='flag-5'>實驗室</b>:如何<b class='flag-5'>通過</b> AI 分割<b class='flag-5'>模型</b>增強<b class='flag-5'>自動駕駛</b>安全性

    實驗室·HTTP協議網絡安全攻擊

    作者 | 李芷若?上海控安可信軟件創新研究院工控網絡安全組 來源 | ?實驗室 社群 | ?添加微信號“ TICPShanghai ”加入“上海控安51fusa安全社區” 01 背 景 隨著
    的頭像 發表于 07-30 13:48 ?280次閱讀
    <b class='flag-5'>鑒</b><b class='flag-5'>源</b><b class='flag-5'>實驗室</b>·HTTP協議網絡安全<b class='flag-5'>攻擊</b>