精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種機(jī)器學(xué)習(xí)方法可以從一個(gè)人的步態(tài)中識(shí)別人的感知情緒

DPVg_AI_era ? 來源:lq ? 2019-07-07 07:46 ? 次閱讀

研究人員最近開發(fā)了一種機(jī)器學(xué)習(xí)方法,可以從一個(gè)人的步態(tài)識(shí)別人的情緒(例如,積極或消極,平靜或精力充沛)。這是第一種此類方法,并在初步實(shí)驗(yàn)中取得了80.07%的準(zhǔn)確率。

一個(gè)人走路的樣子很能說明人在特定時(shí)刻的感受。例如,當(dāng)你感到壓抑或沮喪時(shí),相比感到心滿意足時(shí),走路的時(shí)候更可能耷拉著肩膀。

利用這種身體語言,教堂山大學(xué)和馬里蘭大學(xué)的研究人員最近開發(fā)了一種機(jī)器學(xué)習(xí)方法,可以從一個(gè)人的步態(tài)中識(shí)別人的感知情緒(例如,積極或消極,平靜或精力充沛)。研究人員稱這是第一種此類方法,并且在初步實(shí)驗(yàn)中取得了80.07%的準(zhǔn)確率。

論文地址:

https://arxiv.org/pdf/1906.11884.pdf

“情感在我們的生活中扮演著重要的角色,定義著我們的經(jīng)歷,塑造著我們看待世界和與他人互動(dòng)的方式,”作者在論文中寫道。“由于感知情感在日常生活中的重要性,自動(dòng)情感識(shí)別在許多領(lǐng)域都是一個(gè)關(guān)鍵問題,比如游戲和娛樂、安全和執(zhí)法、購物、人機(jī)交互等。”

研究人員選擇了四種情緒:快樂、悲傷、憤怒和中性,因?yàn)檫@些情緒傾向于“持續(xù)較長一段時(shí)間”,以及這些情緒對步態(tài)活動(dòng)的影響較大。

然后,他們從多個(gè)步行視頻語料庫中提取步態(tài)來識(shí)別情感特征,并使用三維姿態(tài)估計(jì)技術(shù)提取姿態(tài)。

最后,他們利用長短時(shí)記憶(LSTM)模型——能夠?qū)W習(xí)長期依賴關(guān)系——從姿態(tài)序列中獲得特征,并將其與隨機(jī)森林分類器(該分類器輸出多個(gè)獨(dú)立決策樹的平均預(yù)測)相結(jié)合,將樣本分類為上述四種情緒類別。

這些特征包括肩膀姿勢、連續(xù)步數(shù)之間的距離以及手和脖子之間的區(qū)域。

頭部傾斜角度被用來區(qū)分快樂和悲傷的情緒,而“身體緊張”和“身體舒張”分別識(shí)別積極和消極的情緒。至于情緒平靜還是精神充沛,研究人員注意到它往往與運(yùn)動(dòng)量是否增加相對應(yīng),該模型考慮了速度、加速度的大小,以及手、腳和頭部關(guān)節(jié)的“運(yùn)動(dòng)抖動(dòng)”。

AI系統(tǒng)處理的樣本來自“Emotion Walk”數(shù)據(jù)集,簡稱EWalk。EWalk是一組包含1384個(gè)步態(tài)的新數(shù)據(jù)集,這些步態(tài)是從24名受試者在大學(xué)校園(包括室內(nèi)和室外)散步的視頻中提取的。大約有700名來自 Amazon Mechanical Turk 的參與者給情緒貼上標(biāo)簽,研究人員用這些標(biāo)簽來確定情緒的類別和興奮程度。

在測試中,研究人員報(bào)告說,他們的情感檢測方法比最先進(jìn)的算法提高了13.85%,比不考慮情感特征的“普通”LSTM提高了24.60%。

但這并不是說它是萬無一失的——它的精度在很大程度上取決于3D人體姿態(tài)估計(jì)和步態(tài)提取的精度。但盡管有這些限制,研究人員相信他們的方法將為涉及額外活動(dòng)和其他情感識(shí)別算法的研究提供堅(jiān)實(shí)的基礎(chǔ)。

“我們的方法也是第一個(gè)利用最先進(jìn)的3D人體姿態(tài)估計(jì)技術(shù),為步行視頻中的情緒識(shí)別提供實(shí)時(shí)通道的方法,”研究者寫道。“作為未來工作的一部分,我們希望收集更多的數(shù)據(jù)集,并解決目前的限制。”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    152

    瀏覽量

    13175
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8378

    瀏覽量

    132425

原文標(biāo)題:今天你快樂嗎?AI 從走路姿態(tài)就能識(shí)別你的情緒

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    一個(gè)人的奮斗歷程

    一個(gè)人的奮斗歷程
    發(fā)表于 06-24 19:39

    【卡酷機(jī)器人】——基礎(chǔ)學(xué)習(xí)方法

    `` 這里和大伙兒講解下卡酷機(jī)器人基礎(chǔ)學(xué)習(xí)方法,如果有錯(cuò)誤,歡迎大家指點(diǎn)喲。``
    發(fā)表于 01-09 18:01

    【技術(shù)雜談】用AI讀懂人心?情感科學(xué)專家:靠表情識(shí)別情緒不靠譜

    `AI 能否識(shí)別人類感情?原則上來說,AI 可以通過語音識(shí)別、視覺識(shí)別、文字識(shí)別、表情識(shí)別等數(shù)據(jù)
    發(fā)表于 07-30 04:30

    自動(dòng)步態(tài)識(shí)別系統(tǒng)如何實(shí)現(xiàn)?

    識(shí)別也是一種非常重要的生物識(shí)別技術(shù)。步態(tài)識(shí)別是近年來越來越多的研究者所關(guān)注的一種較新的生物認(rèn)證技
    發(fā)表于 09-24 07:16

    是否可以使用LSM6DSOTR生成的數(shù)據(jù)來唯識(shí)別一個(gè)人

    是否可以使用作為手腕可穿戴設(shè)備的部分安裝的 LSM6DSOTR 的手腕/手臂手勢/運(yùn)動(dòng)生成的數(shù)據(jù)來唯識(shí)別一個(gè)人?STM是否提供任何SDK
    發(fā)表于 01-05 06:48

    一種改進(jìn)的步態(tài)識(shí)別方法

    步態(tài)識(shí)別通過人體走路的姿勢來識(shí)別人的身份。近年來,步態(tài)作為一種生物特征識(shí)別技術(shù)備受計(jì)算機(jī)視覺研究
    發(fā)表于 04-01 08:47 ?20次下載

    日本研究團(tuán)隊(duì)創(chuàng)建了一種算法 可以解讀并再現(xiàn)一個(gè)人看到的圖像或想象的圖像

    具體來說,根據(jù)ZME Science網(wǎng)站的報(bào)道,“研究團(tuán)隊(duì)創(chuàng)建了一種算法,可以解讀并且準(zhǔn)確地再現(xiàn)(reproduce)一個(gè)人看到的圖像或想象的圖像。”
    的頭像 發(fā)表于 01-18 15:41 ?4424次閱讀

    機(jī)器人通過段只有一個(gè)人的視頻來模仿學(xué)習(xí)

    人類和動(dòng)物在學(xué)習(xí)新行為時(shí),大部分只需要觀察次就能學(xué)會(huì),然而想讓機(jī)器人學(xué)習(xí)就沒那么容易了。隨著計(jì)算機(jī)視覺的發(fā)展,目前的技術(shù)能讓機(jī)器人依靠人體姿勢檢測系統(tǒng),模仿人類的動(dòng)作進(jìn)行
    的頭像 發(fā)表于 02-07 14:25 ?6136次閱讀
    讓<b class='flag-5'>機(jī)器人</b>通過<b class='flag-5'>一</b>段只有<b class='flag-5'>一個(gè)人</b>的視頻來模仿<b class='flag-5'>學(xué)習(xí)</b>

    動(dòng)態(tài)部位特征的步態(tài)識(shí)別方法

    自動(dòng)機(jī)識(shí)別個(gè)研究熱點(diǎn)。為了提供定規(guī)模的步態(tài)評估數(shù)據(jù)庫,中國科學(xué)院自動(dòng)化研究所創(chuàng)建了CAS
    發(fā)表于 02-23 10:32 ?0次下載
    動(dòng)態(tài)部位特征的<b class='flag-5'>步態(tài)</b><b class='flag-5'>識(shí)別方法</b>

    一種模糊森林學(xué)習(xí)方法

    針對隨機(jī)森林學(xué)習(xí)方法訓(xùn)練數(shù)據(jù)時(shí)存在的過擬合問題,通過改進(jìn)各決策節(jié)點(diǎn)的決策函數(shù)設(shè)計(jì)一種模糊森林學(xué)習(xí)方法。利用高斯隸屬度函數(shù)構(gòu)建決策樹上各節(jié)點(diǎn)的決策函數(shù),將確定決策路徑轉(zhuǎn)換為模糊決策路徑。根據(jù)樣本從根
    發(fā)表于 02-23 11:09 ?1次下載

    一種可以超越傳統(tǒng)方法捕捉微小的面部表情,并更好的測量人類情緒機(jī)器學(xué)習(xí)模型

    為了解決情感計(jì)算面臨的問題,來自麻省理工媒體實(shí)驗(yàn)室情感計(jì)算研究組提出了一種可以超越傳統(tǒng)方法捕捉微小的面部表情,并更好的測量人類情緒
    的頭像 發(fā)表于 08-01 09:48 ?3801次閱讀

    一種新的基于機(jī)器學(xué)習(xí)的系統(tǒng)

    研究人員試圖開發(fā)一種機(jī)器學(xué)習(xí)方法,該方法可以篩選出46名表現(xiàn)出FASD的兒童。他們確定了一種篩查
    的頭像 發(fā)表于 04-23 15:47 ?2154次閱讀

    面部識(shí)別算法可以輕松地從一個(gè)瞬間識(shí)別出個(gè)人

    匿名相機(jī)使用機(jī)器學(xué)習(xí)識(shí)別圖像和視頻的人物,然后對整個(gè)面部或整個(gè)身體進(jìn)行模糊處理,像素化或遮擋。能夠完全遮擋特征非常重要,因?yàn)槟承┠:拖袼鼗?b class='flag-5'>方法
    的頭像 發(fā)表于 07-03 10:51 ?1642次閱讀

    如何使用ESP32-CAM構(gòu)建一個(gè)人識(shí)別系統(tǒng)

    在這個(gè)項(xiàng)目中,我們將使用 ESP32-CAM 構(gòu)建一個(gè)人識(shí)別系統(tǒng),該系統(tǒng)還可以通過識(shí)別未經(jīng)授權(quán)的人的面部來作為 ESP32-CAM 安全系統(tǒng)。ESP32-CAM 是
    發(fā)表于 08-22 16:35 ?1.6w次閱讀
    如何使用ESP32-CAM構(gòu)建<b class='flag-5'>一個(gè)人</b>臉<b class='flag-5'>識(shí)別</b>系統(tǒng)

    聯(lián)合學(xué)習(xí)在傳統(tǒng)機(jī)器學(xué)習(xí)方法的應(yīng)用

    聯(lián)合學(xué)習(xí)在傳統(tǒng)機(jī)器學(xué)習(xí)方法的應(yīng)用
    的頭像 發(fā)表于 07-05 16:30 ?746次閱讀
    聯(lián)合<b class='flag-5'>學(xué)習(xí)</b>在傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)方法</b><b class='flag-5'>中</b>的應(yīng)用