電子發燒友網報道(文/吳子鵬)近日,AI詐騙在國內密集發生,犯罪分子利用人臉效果更易取得對方信任這一點,通過AI技術換臉偽裝成受害者的熟人實施詐騙。網友對此感嘆:眼見都不為實,真是防不勝防啊!
日前,多家媒體報道稱,5月22日安徽安慶何先生接到熟人視頻電話,對方讓其幫助轉賬,視頻9秒后便以開會為由掛掉電話。還稱“微信和電話不能說,加一下QQ”。事發時,何先生放松了警惕,他表示:“因為打了視頻電話,又是熟人,我就沒多想,就轉賬了”。
好在發現被詐騙后,何先生迅速報警,專案民警第一時間凍結相關賬戶,連夜趕赴北京市抓獲3名涉詐嫌疑人,追回何先生被騙的132萬元。
這起案件和此前包頭市公安局電信網絡犯罪偵查局發布的AI詐騙很相似,福州市某科技公司法人代表郭先生因為AI換臉,10分鐘內被騙430萬元。
AI換臉/AI變聲成詐騙“好手段”
我們在此前的文章中已經指出,未來人工智能領域的創新有七大趨勢,分別是人工智能技術與云計算、物聯網、區塊鏈、生物科技、社會科學、藝術文化和人類自身的結合。而AI變臉和AI變聲無疑就屬于AI和人類自身的結合。
AI換臉實際上是一種利用人工智能實現圖像合成的技術,主要原理是通過人臉檢測、關鍵點檢測、人臉對齊、特征提取、特征融合和后處理等步驟將一個人的面部特征轉移到另一個人的面部,產生以假亂真的換臉效果。
我們分步來看。AI換臉的第一步是要做人臉檢測,目前這方面的算法已經非常成熟,主要分為基于級聯的人臉檢測算法,基于兩階段的人臉檢測算法,以及基于單階段的人臉檢測算法三大類。比如Cascade CNN、MTCNN等都是基于級聯的人臉檢測算法;Face R-CNN 、ScaleFace、FDNet等都是基于兩階段的人臉檢測算法;SSD、RetinaNet等則是基于單階段的人臉檢測算法。目前,這些算法已經發展到只需要很少的圖片信息就可以構建成神似真人的人臉和表情。
第二步是人臉對齊。先要對人臉表觀圖像建模,也就是對檢測用到的圖片進行建模,包括顏色模型、投影模型、側剖線模型和深度模型等。然后要對人臉形狀建模,也就是對要被更換的人臉進行建模,這部分和我們熟知的人臉識別非常類似。然后,將兩個建好的模型進行級聯,這就是人臉對齊。
第三步是特征提取和特征融合。這是在建模后進一步細化的工作,提取出人臉的特征向量,包括面部形狀、紋理和顏色等信息。目前,很多AI換臉都是使用基于CNN的面部表情分析和姿勢估計算法來完成。為了讓換臉后的表情更加自然,接下來就需要做特征融合,生成一份新的面部特征。
最后一步是重建圖像,通過反卷積神經網絡(DCNN)或GAN等重建算法,將新的面部特征映射到模型里,并生成一個可以投射的新模型,從屏幕上看,這就是一個能夠實現AI換臉的新圖像。
在AI換臉技術背后,“生成對抗網絡”(GAN)技術起到了很重要的作用。2014年,Goodfellow 與同事發表了全球首篇介紹GAN的科學論文,標志著GAN AI的誕生,并且在那一年就有業者預測稱,GAN有望生成仿真度極高的人臉。隨后的幾年,GAN技術快速發展,到了2017年其生成的人臉已經難以區分真假了。到了2021年,基于GAN技術的deepfake(深度偽造)視頻已經能夠參演明星的演唱會了。
對于AI變聲,相信很多人都已經在電影中見識過了,這種技術在電影中的應用場景也多是用來欺騙別人,目前市面上已經有包括AdobeAudition、Audacity等在內的眾多變聲軟件。不過,一般用于詐騙的都是AI換聲,其是利用一種叫做語音轉換(voice conversion)的技術,來實現聲音特征的轉換。和AI換臉相同的是,AI換聲也需要特征提取,然后將這些特征轉換輸出,需要提取的特征包括基頻、共振峰、梅爾倒譜系數等,用這些特征來改變另一個人說話的聲音。
有了AI換臉和AI換聲,就可以將一個人偽裝成另一個人,然后用于制造虛假新聞、誹謗他人、侵犯隱私、欺詐詐騙等非法領域。這可能就是AI技術普惠特性的B面。
不能讓AI的普惠特性被濫用
近些年,AI的應用范圍越來越廣,呈現出一種百花齊放的姿態,在醫療、制造、安防、金融、交通等眾多領域完成落地。公開數據顯示,2022年,我國人工智能市場規模達到2680億元,預計2023年全年我國人工智能市場規模將達到3200億元,同比增長33.8%。
然而,高速發展的AI也有被濫用之嫌。就以AI換臉來說,積極的一面是其在數字人領域的應用前景是巨大的,包括影視娛樂、游戲開發、教育培訓、醫療保健和安防等領域都有望受益于這項創新技術。比如在教育培訓行業,AI換臉技術有望讓歷史人物“重生”,幫助學生更加直觀地了解歷史人物形象、文藝作品中的角色等,有利于增強學習興趣和認知效果。
不過,AI換臉也被不法分子盯上了,于是乎便有了AI換臉詐騙。
實際上,對于deepfake,在其2019年成為主流時就已經引起了立法機構的注意。在當時,網上流傳出很多偽造的視頻,甚至是有關一些國家的領導人,隨后不久中美德等國家的司法機構都開始對deepfake出手。其中,中國將未經授權的deepfake歸為違法行為;美國情報委員會以及 AI 和法律領域的專家紛紛警告稱deepfake已經呈現出泛濫之勢,并呼吁應盡快制定相關法規;德國則發布了有關于deepfake削弱國家公信力的聲明。
目前,對于AI欺詐基本是從兩個方面進行防范。其一是加強管理,比如在2022年12月發布的《互聯網信息服務深度合成管理規定》中明確規定,提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。同時,近年來個人信息保護法、個人信息安全規范、數據安全法等法律法規也在加強個人隱私數據的保護。
其二是技術層面做突破,也就是所說的用“魔法”打敗“魔法”,目前很多公司都在致力于推出基于人工智能技術的防詐騙應用。比如活體防偽、中介識別等,這些應用對于AI換臉詐騙有一定的打擊作用,可以有效識別照片、視頻、面具、仿真模型等,特別是使用應用程序實現的換臉和換聲等。
當然,無論法規和技術如何突破,AI詐騙肯定是難以杜杜絕的。因此,全民具備“防范意識”才是杜絕AI詐騙的大前提。
后記
技術在升級,騙術也在升級。近一段時間以來,AI換臉欺詐的新聞頻現報端,實際上我們都知道現實中的案例更多。這是AI技術的另一種打開方式,對社會穩定發展有巨大的威脅。另外,AI換臉明星演員在直播平臺帶貨的現象也是屢禁不止,涉嫌欺詐或是虛假宣傳。要杜絕此類事情,需要法規和產業的高度配合,同時也需要增強全民的防范意識。
-
AI
+關注
關注
87文章
30106瀏覽量
268398 -
人工智能
+關注
關注
1791文章
46845瀏覽量
237533
發布評論請先 登錄
相關推薦
評論