人工智能可以做的事情很多,但它們能“讀懂”人類的心情嘛?近日科學家們可能找到了一種讓AI學會“讀心”的方法。
由于每個人走路的姿勢各有不同,盡管你會認為這可能沒什么,但其實你的走路姿勢就可能泄露了你當時的情緒。比如,當你昂首挺胸時,你可能感到十分興奮愉快,而當你垂頭喪氣時,你很可能低頭或者駝背走路。
美國查佩爾希爾大學和馬里蘭大學的研究人員利用身體語言,研究了一種機器學習方法,這種方法可以從某人的步態中識別出他當前的情緒,包括情緒向性(消極或積極)和喚起水平(平靜或充滿活力)。研究人員稱,這種方法識別出來的人類情緒準確率達到80.07%。
研究人員寫道:“情緒在我們的生活中扮演著重要的角色,定義著我們的經歷,塑造著我們看待世界和與他人互動的方式。由于感知情感在日常生活中的重要性,自動情感識別在許多領域都是一個關鍵問題,比如游戲和娛樂、安全和執法、購物以及人機交互等。”
于是研究人員選擇了四種情緒作為分類——快樂、悲傷、憤怒和中性,以此作為測試步態分析算法的例證。然后,他們從多個步行視頻語料庫中提取步態來識別情感特征,并使用三維姿態估計技術提取姿態。
最后,他們利用長短時記憶(LSTM)模型——這個模型能夠學習長期依賴關系,從姿態序列中獲得特征,并將其與隨機森林分類器(該分類器輸出多個獨立決策樹的平均預測)相結合,將其所分析步態歸入上述四種情緒類別中。
▲這個AI系統根據人們走路的方式對他們的情緒進行分類
步態的特征包括肩膀姿勢、連續步數之間的距離以及手和脖子之間的抖動頻率。頭部傾斜角度被用來區分快樂和悲傷的情緒,而更緊湊的姿勢和“身體擴張”分別代表著消極和積極的情緒。
至于喚起水平,科學家們注意到它往往與增加的動作相對應,該模型考慮了速度、加速度的大小,以及手、腳和頭部關節的“運動抖動”。
AI系統處理了來自“情感漫步”(Emotion Walk,簡稱EWalk)的樣本。EWalk是一組包含1384個步態的新數據集,這些步態是從24名受試者在大學校園(包括室內和室外)散步的視頻中提取的。同時,大約700名來自亞馬遜土耳其機器人公司的參與者,還給該數據集的步態情緒進行標記,以便研究人員根據這些標記來確定受試者步態情緒的效價和興奮程度。
測試報告顯示,他們的情感檢測方法準確率比之前最先進的算法提高了13.85%,比不考慮情感特征的“普通”LSTM提高了24.60%。
但這些數據并不代表該機器學習方法的檢測是萬無一失的,因為它的準確率在很大程度上取決于3D人體姿態估計和步態提取的精確度。但盡管有這些限制,研究小組相信他們的方法將為涉及額外活動和其他情感識別算法的研究提供堅實的基礎。
研究人員表示:“我們的方法也是第一個利用最先進3D人體姿態估計技術,為行走視頻中的情緒識別提供實時通道的方法。作為未來工作的一部分,我們希望收集更多的數據集,并改進當前系統中存在的限制。”
-
3D
+關注
關注
9文章
2863瀏覽量
107328 -
人工智能
+關注
關注
1791文章
46859瀏覽量
237579
原文標題:面部表情隱藏得再深也沒用,身體總有一處能出賣你,比如走姿
文章出處:【微信號:luomajqrxt,微信公眾號:機器人學堂】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論