幾年前的一個愚人節,我們和大家聊過AI技術被作為詐騙工具的情況。很不幸,當時討論的一些苗頭,現在都成了電詐犯罪中屢見不鮮的手段。
更可氣的是,隨著AI技術與應用本身的發展,犯罪分子的AI手段不減反增。一些“新型AI”,也在這幫玩意的努力下加入了坑人的隊伍。
愚人節又到了,感覺咱們有必要來聊聊更新換代的“AI for bad”。
提高警惕,避免上當,不做“愚人”。
坑人用的AI,也在更新換代
此前我們討論AI作為詐騙工具時,提出應用到的技術主要有兩種:TTS語音合成與NLP自然語言處理。
前者的作用是讓犯罪分子合成假的音頻。在2019年,《華爾街日報》報道了一名詐騙犯用AI語音合成來冒充老板,讓一家分公司的總經理給他打了22萬歐元。這類詐騙現在已經屢見不鮮,而且最初TTS需要大量被模仿者的語料,門檻比較高,現在很多開放的TTS接口,可以只用10句話左右的語料來合成語音線,甚至能模仿方言,已經有點防不勝防的意思。
而NLP技術的應用,主要是智能電話外呼。我們今天接到的很多客服、推銷電話都是AI打的,其實詐騙電話也是。不久前,江蘇警方打掉了一個詐騙團伙,他們是利用AI智能外呼來撥打詐騙電話,數量達到了驚人的1700多萬個。AI打詐騙電話雖然成功率不高,也不會像真騙子一樣循循善誘,威逼恫嚇,但勝在效率高規模大,可以被犯罪分子用來篩選目標或者作為引流。
可以發現,這些技術主要以語音方面為主。但在當年討論AI詐騙手段時,我們就說騙子未來一定會向視覺方向發展,畢竟“眼見為實”,如果能用AI技術來進行圖像甚至視頻的造假,那么犯罪份子的手段將更加多樣,方式更加隱蔽,而且AI技術本身也一定要向機器視覺與多模態方向發展。騙子和AI技術,某種程度上是供需能夠匹配的。
現在,它來了!視覺系AI詐騙,帶著各種各樣的惡意走來了!
暫停總結一下,AI坑人的第一階段主要是語音,方式主要是:第一,合成親人、同事、老板的假聲音進行詐騙。第二,用AI外呼系統撥打詐騙電話。最后還有個比較小眾的,用AI來模仿筆跡,但因為咱們國家數字化程度比較高,簽支票之類的不多,這種詐騙方式也不顯著。
而AI坑人的第二階段,就開始圍繞視覺做文章,主要方式是AI制作假的圖片與視頻,主要技術是廣受討論的Deepfake和AIGC。
驚掉歪果仁下巴的新型AI騙局
2月初,敘利亞土耳其發生了強烈地震,引發全球關注。在震后的救災工作中,AI技術發揮了非常關鍵的作用,比如大量應用AI+遙感,有效識別了災情,提升了救災效率,可以說用AI點亮了人類的互助之光。
但就有那么一些人,好日子不得好過,非要出來丟人現眼。同樣是在這場地震后,全球社交媒體上各種AI詐捐騙局層出不窮,讓各路歐美媒體感受到了來自AI技術的小小震撼。
比如最著名的是,一個騙子在推特上反復分享呼救信息,并附上了一名消防員拯救孩子的照片,以及自己的加密貨幣錢包鏈接,很多不了解真實情況的歪果群眾,心碎之余馬上打錢,但也有眼尖者發現,這個圖片怎么一股AIGC的味道?
后來在媒體并不復雜的小調查后,證明這張以及大量其他土敘地震期間的求救、呼吁捐款所使用的現場圖片,都是用AIGC生成的。AIGC產量大,擬真度高,還沒有原圖作為證據,偽裝性更強,配合災難之后人們焦慮急切的心情,很容易成功實現詐騙。
另一種在土敘地震后涌現的詐騙形式,是在TikTok等平臺上發布小視頻,聲稱自己就在受災區,呼吁打賞和捐款。但這些視頻里的背景、聲音甚至人臉,都有可能是AI合成的。
這件事情由于跟國際熱點息息相關,引發了廣泛關注和討論,但其實在這場鬧劇之下,用AI+視覺技術作惡已經屢見不鮮。
騙子們已經升級了,真正做到了眼前所見,全是AI。
當然這里要提一下的是,AI技術作為詐騙手段,目前還不是主流,因為這還是有技術門檻的,犯罪分子顯然沒那么高的整體文化素養,但它效率更高,隱蔽性更強,超出了以往我們對電詐與其他犯罪的認知,更加值得注意。
AIGC,已經投身殺豬盤
視覺系AI的新型詐騙形式,早已經來到了我們身邊,其中最普遍的一種方式,就是將AIGC圖片和殺豬盤進行結合。
殺豬盤這種臭名昭著的電詐形式,基本思路是電詐分子偽裝出一個人設,再通過網戀等方式獲取被騙人信任。這種模式里一個關鍵,就是如何能夠確保不被拆穿,畢竟雙方在交流過程中,肯定要發照片、開視頻。
原本殺豬盤的應對辦法,是到處盜取社交媒體里分享的照片,然后一旦要視頻就找理由推脫,但盜取的圖片畢竟有限,而且都是“成片”,很難滿足受騙者實時分享照片的要求。
最近爆火的AIGC,尤其是AI生成圖片,給這幫玩意提供了巨大便利。現在的AI生圖軟件,已經可以生成幾近真人,看不出瑕疵的圖片,加上可以接受指令進行穿搭、動作、場景設計,完全可以滿足殺豬盤對照片的需求。
你以為網戀的女神,第一時間分享給你在瑞士滑雪之后的素顏美照,殊不知那是摳腳大漢在東南亞某個地下室,剛剛讓AI生成的。
更有甚者,一些AIGC軟件可以生成擦邊,甚至明顯越界的圖片,乃至生成不怎么穿衣服的視頻。這就給詐騙分子的裸聊騙局增添了新的籌碼,動用真人進行裸聊騙局,難度大,門檻高,而直接讓AI來則堪稱無本萬利。一旦屏幕這頭被害人被拍下裸聊證據,往往就是萬劫不復的后果。
記得我看過貼吧上有個熱門帖,被害人分享裸聊受騙的全過程。他的描述非常痛苦煎熬,但他至少還是相信與之聊天的,是一個模樣他很中意的女孩子,甚至還隱約覺得她肯定也是迫不得已。但他不知道的是,那很可能是AI換臉甚至AI生成視頻。
被坑了還替AI惋惜,真的是哀其不幸,怒其不爭。
AI換臉/換裝,背后的猥瑣“產業鏈”
如果說,不法分子用AIGC是生成一個虛構的人來行騙。那么比之更可恨的,就是Deepfake,也就是AI換臉技術的濫用。如今,各大媒體平臺都一致性封殺了AI換臉等有爭議的內容,但這并不妨礙這種技術依舊在暗地里大行其道,甚至肆意泛濫。
不久之前,有個所謂的“網紅”,用AI換臉技術合成了女明星和他演吻戲的視頻,隨后惹怒了粉絲,甚至遭遇了實體宇宙對線。對此我想說,您還真的是有點活該呢。
還有一位女士,在社交媒體上分享的照片,被不法分子用AI軟件進行“一鍵脫衣”并在網上傳播,這一事件也引起了廣泛關注。
這類侵犯他人肖像權、隱私權、名譽權的行為,都是利用Deepfake來完成。這種行為危害極大,同時也極盡道德敗壞之能事,往往會造成《保你平安》中那樣,造謠一張嘴,辟謠跑斷腿的無奈。
同時,AI換臉技術,也開始被應用到了詐騙活動中。比如此前就有人用AI換臉偽裝成明星,然后進行直播騙錢粉絲打賞、刷禮物。最近,我們可以看到很多明星工作室都在對這種行為進行法律追責。
除了AI換臉明星進行詐騙之外,還有騙子利用AI換臉裝成熟人進行詐騙。由于換臉之后直接視頻通話可信度很高,對于不了解AI技術的老年人來說,可謂是防不勝防。
AI換臉與AI脫衣有多可怕,我們隨便想想就能知道。但很多人會覺得,AI換臉應該是挺難的一種技術吧,好像跟影視后期差不多,不是普通人能做到的吧?
其實不然,AI換臉已經有了非常成熟的“產業鏈”,稍加用心很快就能學會,甚至得到源源不斷的素材支持。一般來說,別有用心之徒想要開始AI換臉,要解決這么幾個問題。
首先是技術從哪來?
在GitHub等開源社區上,就有開源使用的AI換臉軟件。其中最知名的是Deepfacelive、Deepfacelab兩種。很多相關的技術社區、論壇、貼吧,有大量教程可以進行傻瓜式學習,甚至還有中文版AI換臉軟件進行分發。如果還學不會,二手交易平臺上也有大量教程與教學售賣,價格非常低廉。
那么,AI換臉用的圖像和視頻素材從哪來?
這要分成兩個部分。首先是普通人的圖像與視頻素材,最常見的泄露渠道就是社交媒體,會有不法之徒專門收集社交媒體資料,然后進行打包售賣。另一種盜取視頻素材的方式,是以某種名義進行視頻通話,然后錄制,這種往往以公檢法部門、銀行、防疫等理由要求進行視頻通話。由于不涉及錢財往來,被騙者往往不會產生警覺,然后騙子會再用錄制的視頻進行AI換臉,騙取被害者家人、朋友的錢財,或者用來辦理網貸。
還有一種就是明星的素材。上面提到那個惡心人的網紅,可能就是用了所謂的“DFL仙丹”進行女明星的AI換臉。所謂“仙丹”,是指利用明星的視頻、照片素材,進行符合DFL等軟件需求的預訓練,最終得到的模型可以免訓練,免修圖,直接用來換臉替代。一個明星的換臉素材庫,往往只需要幾十元到幾百元不等。
現在如果在二手交易平臺搜索“AI仙丹”、“DLF仙丹”等字樣,會發現大量正在售賣的數據模型。而購買者想來只有兩種,一種是滿足自己的猥瑣意淫,甚至炮制明星的所謂黑料;另一種就是騙子想要假借明星進行網絡詐騙。
無論如何,未經允許對一個人的肖像權、隱私權進行移花接木,都是無法接受的。
怎么防范新型的坑人AI?
目前階段,新一代的坑人AI,有兩種主流手法:AIGC和AI換臉。可以預想到的是,在生成式AI愈發強大的今天,伴隨著AI生成視頻、生成數字人的能力提升,這種坑人方式還將升級。
不久的未來,可能都不需要換臉+真人。騙子可以直接弄個AI跟你聊,甚至弄個假明星跟你聊天,搭配上聲音合成與強大的對話能力。騙子即將做到全自動、全流程、高度智能化的AI詐騙。
到底怎么才能防范與制止新型的AI坑人,保護大眾的財產權與隱私權呢?可能至少要從三個方面進行入手:
1.技術防范。在今天,反詐AI也已經發展壯大。各個平臺和有關部門都在部署用AI反詐的技術能力,可謂是用魔法打敗魔法。但反詐AI的主要邏輯是進行問題信號的識別,繼而進行AI智能外呼的主動干預,估計不久之后,我們可能會看到詐騙AI和反詐AI聊上了的奇特新聞。但是面對新型的AI騙局,反詐AI技術還需要進一步升級。比如目前也有轉變識別AIGC內容的軟件,但受害者應該很少想到主動去識別一下,能想到估計也就不上當了。面向視覺系的AI詐騙,反詐技術還有待提升。
2.平臺監管。像AI換臉這種技術,往往是需要一個技術鏈條來支持的。如果我們能讓別有用心的人無法獲得軟件、數據上的支持,那么AI換臉自然也就無法泛濫。警惕不法分子用AI搞事情,需要幾種平臺同時下手。首先是AIGC平臺要控制內容質量,不能生成擦邊球或者明顯有不良意圖的圖片與視頻。其次是軟件分發平臺與論壇、社區,要管控AI換臉、AI脫衣等軟件的流通。二手交易和本地生活平臺,要禁止分享和售賣AI換臉工具、明星數據仙丹等內容。
3.防范意識。讓大家提高反詐意識已經是老生常談了。但還是想要說一下,咱不是說受害者有罪論。但做一些事,真的有必要嗎?很多人出于出于好奇或者其他小心思,想要弄一個明星的換臉視頻,一張熟人的換臉照片,這往往就是惡行的開始,同時也給更大的犯罪提供了土壤。GHS的心理,侮辱他人的心理,盲目追星的心理,如果都淡一點,事情就會好一點。
總之,AI不坑人,但人類會用一切辦法坑人。
行走人間,小心為上。
-
AI
+關注
關注
87文章
30212瀏覽量
268455 -
AIGC
+關注
關注
1文章
357瀏覽量
1510
發布評論請先 登錄
相關推薦
評論