AI在藝術(shù)界表現(xiàn)出越來越驚人的“天賦”
我們知道用AI來繪畫、寫詩、作曲已經(jīng)不是新鮮事。但在藝術(shù)領(lǐng)域,AI在試圖模仿、甚至超越人類的過程中,始終存在一個難以逾越的瓶頸,就是人類與生而來的創(chuàng)造力。
這也是AI研發(fā)人員聚焦深度學(xué)習和強化學(xué)習著力攻克的難點之一。
近日,預(yù)印論文庫arXiv上發(fā)表了一項最新研究成果,論文中的AI畫家可以化身“心靈捕手”,通過對話式溝通感受人類的獨特品質(zhì)、個性和情緒,從而繪制具備內(nèi)在情感特征的人物肖像。
據(jù)了解,這位Empathic AI Painter,出自來自加拿大溫哥華西蒙弗雷澤大學(xué)(SFU)iViz實驗室團隊。此前,他們的AI畫家曾在國際神經(jīng)信息處理系統(tǒng)(NeurIPS)大會做了現(xiàn)場演示,吸引眾多用戶參與圍觀,還受到CTV國家新聞的專項報道。
那么這款“心靈捕手”AI畫家是如何進行藝術(shù)創(chuàng)作的呢?
會聊天的AI畫家
據(jù)該團隊介紹,AI畫家具備兩套創(chuàng)意系統(tǒng),一是對話式語音交互系統(tǒng),一是AI人像生成模型系統(tǒng),他們均通過3D虛擬人像來呈現(xiàn)。
Empathic AI Painter
與傳統(tǒng)繪制畫像不同,它不是一種靜態(tài)的“眼觀”模式,而是采取對話聊天的形式,捕捉內(nèi)在情緒完成藝術(shù)創(chuàng)作。
該團隊教授史蒂夫·迪帕拉( DiPaola)表示,3D虛擬畫家的語音交互系統(tǒng)可以與用戶聊天,就某一事件采訪他們的感受,了解他們的性格,進而通過AI人像生成模型,在繪畫過程中體現(xiàn)不同的情感特質(zhì)。總的來說,AI畫家需要完成三項任務(wù):
感知用戶語言和行為
基于以上信息,判定人物性格和情感特質(zhì);
通過AI人像生成模型,在繪畫風格、色彩、紋理上呈現(xiàn)不同的用戶特質(zhì);
在ECA方面,3D虛擬人像融合了NLP自然語言處理模型,在交談中通過面部情感、語言壓力、語義,感知人類的情感和對話,并作出相應(yīng)的反饋。另外,其內(nèi)置的共情建模,還可以通過手勢、言語、表情,對用戶情緒作出感知性反應(yīng)。自然、真誠的對話表現(xiàn)可以讓人類更真實的表現(xiàn)自己。
在個人特質(zhì)評估方面,研究人員采用了“五大人格模型”(FFM)。它是由科斯塔和麥克雷在20世紀80年代提出的,被廣泛用于人格分析。模型提出了神經(jīng)質(zhì)(N)、外傾性(E)、經(jīng)驗開放性(O)、宜人性(A)和認真性(C)五大人格因素,并通過NEO人格調(diào)查表進行測量。
在肖像渲染階段,利用mDD((ModifiedDeep Dream)模型在16萬張數(shù)據(jù)集上進行深度訓(xùn)練,由ePainterly模塊完成的最終的風格繪制。
17種不同類型的情感肖像
那么它的作畫效果如何呢?之前提到,AI畫家曾在NeurIPS 2019大會上做過現(xiàn)場展示,當時有26位用戶參與,并完成的現(xiàn)場交互。實際上原、人格調(diào)查表有120多個問題,大約需要45分鐘才能完成。
但這里研究人員僅使用了每個維度的一個問題進行了互動,用時不足5分鐘。以下是圍繞“會議感受”主題下的互動問題:
最終結(jié)果顯示,84.72%的用戶語音被準確識別,AI畫家完成呈現(xiàn)除了17中不同的個性類別,同時用戶也表示,該風格表現(xiàn)出了其內(nèi)在的情感特征。(以下是部分作品)
目前這款3D虛擬畫家的繪畫作品以已在去全球展出,包括紐約市和惠特尼的現(xiàn)代藝術(shù)博物館(MoMA)。
DiPaola教授認為,AI在激發(fā)藝術(shù)與高級計算機技術(shù)融合方面存在無限的潛力。他們所研發(fā)的AI系統(tǒng)只是藝術(shù)創(chuàng)新的第一步,之后他們還將在此系統(tǒng)上,探索基于詩歌、散文的藝術(shù)創(chuàng)作。
背后的技術(shù)原理
與傳統(tǒng)AI設(shè)計使用單一算法不同,DiPaola教授團隊的AI系統(tǒng)融合多種不同的技術(shù)。我們先來看一下完成的AI系統(tǒng)的架構(gòu)組成,分為對話交互循環(huán)(Conversational Interaction Loop)和生成風格化肖像(Generative Portrait stylization)兩大模塊組成,這兩個模塊之間由BIG-5人格模型鏈接,用于傳達個性化肖像的關(guān)鍵信息。
第一階段的對話交互循環(huán)功能是基于具有移情模塊的M-Path系統(tǒng)實現(xiàn)的。它可以呈現(xiàn)出3D虛擬人像的形式。在與人類的對話中,具備類似視頻會議的輸入輸出設(shè)置,能夠根據(jù)用戶的情感和語言屬性實時處理輸入,進而產(chǎn)生言語或行為的移情輸出。具體來說,M-Path系統(tǒng)的運行是基于三個不同模塊控制:
感知模塊:用于采集和處理參與者信息。當用戶講話時,此模塊通過麥克風和攝像機收集音頻和視頻作為輸入信號。在視頻輸入源中,面部情感識別模塊采用的是OpenCV算法,用來識別不同面部表情所對應(yīng)的情緒類別。本次研究中將基本情緒分為6種,憤怒,厭惡,恐懼,喜悅,悲傷,驚奇和蔑視,這一分類是基于CK+數(shù)據(jù)集的深度學(xué)習訓(xùn)練而獲得。
另外,來自麥克風的語音輸入首先會被傳送至文本模塊,進行轉(zhuǎn)化轉(zhuǎn)換處理。該模塊采用的是Google的STT服務(wù)。
情緒分析組件使用從STT服務(wù)接收到的文本來評估文本的極性值(正-中性-負),然后通過SO-CAL情感分析器在NRC-Canada詞典上進行了重新訓(xùn)練,最后將文本發(fā)送至決策組件生成對話響應(yīng)。整個處理過程會持續(xù)到對方發(fā)送語音結(jié)束為止。
行為控制器模塊:負責在對話循環(huán)中,生成同理心和具有目標導(dǎo)向的語言/非語言響應(yīng)。 在收聽階段,3D虛擬人像會產(chǎn)生相應(yīng)的情感匹配和反向傳播行為。情感匹配是通過移情機制對用戶面部表情的選擇而實現(xiàn)的。而在交談中通過檢測到暫停觸發(fā)的點頭行為來創(chuàng)建反向傳播,這兩種行為的集合,最終生成了獲取情感的聆聽行為。
當對話結(jié)束后,從STT引擎接收到的文本信息會與用戶的總體情感一起傳遞至對話管理器(Dialogue Manager),并最終發(fā)送到移情機制(e Empathy Mechanisms)組件。 DM的目標是完成Big-5人格問卷識別的個性類別。 EM的目標生成對應(yīng)類別的情感響應(yīng)。
行為管理模塊:用于創(chuàng)建自然的對話行為。M-Path在對話的所有狀態(tài)下連續(xù)生成非語言或非語言行為,如面部表情,身體姿勢、手勢及嘴唇移動會與語音輸出同步完成,并作為行為標記語言(Behavior Markup Language)消息發(fā)送到Smartbody角色動畫平臺以顯示生成的行為。
第二階段生成風格化肖像,這部分的處理分為三個步驟。首先主要是運用AI工具對人像進行預(yù)處理,包括圖像背景分割,調(diào)整人像的光和色彩的平衡。
然后將預(yù)處理的圖像輸入至mDD系統(tǒng)模型進行深度訓(xùn)練,這里借用的是Google的Deep Dream模型,基于本次研究特性進行了部分調(diào)整,因此在這里成為mDD(ModifiedDeep Dream)。它所使用的數(shù)據(jù)集收集了來自3000位藝術(shù)家的160,000張帶有標簽和分類的畫作,總大小為67 GB。
最后,ePainterly系統(tǒng)結(jié)合Deep Style來處理人像表面紋理以及非真實感的渲染(NPR)技術(shù),例如粒子系統(tǒng),調(diào)色板操縱和筆觸引擎技術(shù)。這個不斷迭代的過程將完成最終的肖像風格。其中ePainterly模塊是講點繪畫系統(tǒng)Painterly的擴展。
這部分NPR渲染在很大程度上減少了mDD輸出圖像時產(chǎn)生的噪聲偽影。以下是各個階段的效果圖:
雖然AI畫家在捕捉人類情感,繪制風格化肖像方面表現(xiàn)非常出色,但該研究團隊認為它還有很大的擴展空間,并表示從情感評估模型、用戶個性分析和互動場景三個方面對其進行優(yōu)化。
-
AI
+關(guān)注
關(guān)注
87文章
30172瀏覽量
268439 -
人臉識別
+關(guān)注
關(guān)注
76文章
4005瀏覽量
81772 -
3D打印
+關(guān)注
關(guān)注
26文章
3544瀏覽量
108875
發(fā)布評論請先 登錄
相關(guān)推薦
評論