編者按:如今,社交網絡將全球各地的人們緊密聯系在了一起,雖然這確實帶來了極大的便利,但它也成了不良信息的發育土壤,比如散布黃圖。月前,Facebook曾向用戶征集裸照,用于訓練模型以屏蔽和用戶相關的不雅照片,此舉引發巨大社會反響。而近期,巴西名校里約熱內盧天主教大學的幾位研究人員開發了一個自動給裸露人體穿上比基尼的模型:把別人脫下的衣服,一件件穿了回去。
現在,借助互聯網的可訪問性和信息的廣泛傳播性,人們獲取各種內容的簡易程度堪稱前所未有。雖然這帶來了不少好處,但也暴露了一個事實——部分用戶的隱私信息正在被大肆傳播,比如個人不雅照。
當然,我們不排除社交網絡上存在愿意暴露自己身體的網友,但在缺乏管制和約束的環境下,一些未經本人同意,甚至本人都不知道的圖像也會出現在網絡中,給當事人造成惡劣影響。雖然各國成人信息監管由來已久,但這些審查工作至今都還是簡單的二元分類:“忽略”,還是“不忽略”?在這種情況下,受害者的權益沒法得到保障。
更有甚者,據澳大利亞伯內特的一項統計顯示,92.2%的受訪男孩和62.1%的受訪女孩在18歲以前就已經在網上接觸過色情內容,首次接觸的中位年齡只有14歲。這些流傳于社交網絡的不良信息正在荼毒我們的下一代,而審查機制不合理(全年齡環境下)是一個主因。
在這篇論文中,研究人員介紹了一種新的成人信息審查方法:用自動過濾敏感內容取代檢測、排除已識別內容。他們開發了一種基于GAN的圖到圖轉換方法,可以檢測出圖片中的敏感區域,在覆蓋它們的同時保留其語義。
簡單來講,就是用穿衣服取代打馬賽克,模型不用學會識別什么是胸部,什么是臀部,它只需要學會判斷哪里是敏感部位,只要這些部位是裸的,它就可以生成符合形狀的布料。
具體方法
因為目標是把裸女轉成穿著比基尼女郎,首先,研究人員從網上抓取了兩類圖像:***女性(X)和穿著比基尼的女性(Y)。他們對圖像進行了過濾,一張臉只保留一張圖,這是訓練模型所使用的數據集(數據集會公開,但由于雙盲評審,鏈接被隱去)。
在摘要中,他們稱即便數據集很小,模型的效果也很理想。所以把數據集進一步分為訓練集(90%)和測試集(10%)后,對于圖像X,他們有1044張訓練圖像和117張測試圖像;對于圖像Y,他們有921張訓練圖像和103張測試圖像。
圖像到圖像轉換是一類經典計算機視覺問題,按照一般方法,研究人員需要對齊訓練集圖像,讓模型學習輸入圖像和輸出圖像之間的映射。但在這個問題下找到成對圖像基本是不可能的,他們沒有那個條件去找一千多個模特專門拍攝。如上圖所示,最終他們受Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks這篇論文啟發,用對抗訓練學習域之間的真實映射。
具體而言,這個框架由兩個映射生成器(G:X→Y、F:Y→X)和兩個判別器(DX、DY)組成:
生成器G:把真實裸女圖像{x}轉成比基尼女郎偽圖{y?};
生成器F:把真實比基尼女郎圖像{y}轉成裸女偽圖{x?};
判別器DX:區分裸女真圖{x}和裸女偽圖{F (y)} = {x?};
判別器DY:區分比基尼女郎真圖{y}和比基尼女郎偽圖{y?}。
訓練完成后,生成器就能生成能騙過判別器的圖像,也就是為裸女“穿”上衣服。模型使用的是LSGANs的損失函數,因為它比原始GAN的函數更穩健,具體細節論文中有明確寫明,此處不再介紹。
實驗結果
研究人員在實驗中測試了不同架構生成器的效果,用的模型分別是ResNet和U-Net,他們也測試了不同深度對判別器的影響。下圖是模型在原數據集上的效果:第一行是裸女原圖,第二行是ResNet生成器的結果,第三行是U-Net生成器結果。
可以發現,雖然使用U-Net生成器的模型(第三行)為敏感部位打上了“馬賽克”,但它們整體上失真嚴重,不能被視為“比基尼”。而使用ResNet生成器的模型效果更好,比基尼更美觀,覆蓋范圍也更準確,圖像質量更高。
在訓練過程中,研究人員發現模型有時會試圖在圖像主體(人)和圖像背景間建立聯系,這顯然是誤入歧途。因此他們用Mask R-CNN截取任務輪廓,制作了一個空白背景數據集重新訓練模型。從理論上來講,通過使用“無背景”圖像,神經網絡可以更專注于當前任務,而不受嘈雜的背景影響。
如上圖所示,無背景下,兩個模型的結果比之前好了一點,但相比U-Net生成器,ResNet生成器還是顯示出了明顯的優勢。此外,他們還對模型的穩健性進行了測試:輸入一張比基尼女郎圖后,生成器F輸出了和原圖非常相近的圖像,并沒有做太多更改——這意味著模型在沒有胸部、臀部語義認知的情況下,真正學會了識別敏感區域。
小結
看罷全文,相信有讀者會提出質疑:近幾年學界發表了不少去馬賽克的成果,這種技術和打馬賽克又有多大區別?
總的來說,區別還是很明顯的,至少比基尼女郎比馬賽克更美觀,從某種程度上來說也更少兒皆宜。再者說,不用考慮超分辨率去馬賽克,整個模型是一體的,既然生成器G可以生成逼真比基尼女郎圖像,同理,生成器F也能把比基尼給“脫”了,這在論文中有圖文介紹,所以想還原不是沒有辦法。
但需要注意的是,這種技術的本意是改進現有成人信息審查機制,讓更多不該看到這類信息的人沒有機會接觸不良信息,尤其是青少年和兒童。這也保護了不雅照泄露者的權益,避免網絡傳播給他們造成二次傷害。從根本上說,它無法真正制止犯罪和侵權,但它能反映一種進步。
如果要說缺點,除了圖像質量不高,論文作者給的圖像測試也不具典型性,因為侵權圖像涉及大量偷拍內容,而論文中的裸女照片都像模特擺拍,因此數據集還有待擴充。此外,數據集中也應該增加男性內容。
-
圖像
+關注
關注
2文章
1083瀏覽量
40418 -
GaN
+關注
關注
19文章
1919瀏覽量
72992 -
數據集
+關注
關注
4文章
1205瀏覽量
24644
原文標題:用GAN過濾圖像敏感區域:為裸女“穿”上比基尼
文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論