精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

把ChatGPT塞進(jìn)副駕駛!清華、中科院、MIT聯(lián)合提出Co-Pilot人機(jī)交互框架

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來(lái)源:未知 ? 2023-11-20 09:10 ? 次閱讀

作為本年度人工智能領(lǐng)域最重要的突破之一,大語(yǔ)言模型相關(guān)研究始終是各大相關(guān)領(lǐng)域的關(guān)注焦點(diǎn)。

近日,來(lái)自清華大學(xué)、中國(guó)科學(xué)院、MIT的科研人員對(duì)于大語(yǔ)言模型在人機(jī)交互領(lǐng)域中的應(yīng)用進(jìn)行了研究,設(shè)計(jì)了一種名為Co-Pilot的人機(jī)交互框架,使用提示引導(dǎo)ChatGPT(gpt3.5)在考慮人主觀意圖的同時(shí)完成簡(jiǎn)單的自動(dòng)駕駛任務(wù)。 wKgaomVasxWANWtEAACJDGrqqG8021.png

論文標(biāo)題:

ChatGPT as Your Vehicle Co-Pilot: An Initial Attempt

論文鏈接:

https://www.researchgate.net/publication/374800815_ChatGPT_as_Your_Vehicle_Co-Pilot_An_Initial_Attempt

該研究作為最早一批使用原生語(yǔ)言大模型直接介入自動(dòng)駕駛?cè)蝿?wù)的嘗試,揭示了大語(yǔ)言模型在自動(dòng)駕駛領(lǐng)域進(jìn)一步深入應(yīng)用的可能性,也為后續(xù)相關(guān)研究指明了方向 [1]。

wKgaomVasxWAfVoRAAAl6LOgh3c866.png

研究背景:為什么使用大語(yǔ)言模型?

人車(chē)交互作為智能汽車(chē)發(fā)展的重要功能之一,對(duì)降低司機(jī)駕駛負(fù)擔(dān)、提升乘客出行體驗(yàn)有很大幫助,相關(guān)功能也成為了消費(fèi)者在選擇時(shí)的重要標(biāo)準(zhǔn)。 盡管現(xiàn)有人機(jī)交互系統(tǒng)已經(jīng)可以實(shí)現(xiàn)語(yǔ)音識(shí)別、指令執(zhí)行等功能,但大多數(shù)情況下系統(tǒng)僅能根據(jù)既定指令的訓(xùn)練在有限范圍內(nèi)給出回答或響應(yīng),存在一定的局限性。 相比之下,大語(yǔ)言模型在此類(lèi)能力上具有更好的表現(xiàn): 1. 可以理解人的意圖:大語(yǔ)言模型具有推理能力,其可以從文字中理解說(shuō)話者的真正意圖,并給出相應(yīng)的回應(yīng); 2. 擁有常識(shí):得益于大量的訓(xùn)練數(shù)據(jù)中包含的知識(shí),大預(yù)言模型具有一定的常識(shí),并掌握許多特定領(lǐng)域的基礎(chǔ)知識(shí)與能力; 3. 對(duì)于不同任務(wù)的高度適應(yīng)性:通過(guò)調(diào)整提示詞,大語(yǔ)言模型對(duì)于不同任務(wù)具有很好的適應(yīng)性,可快速適配不同種類(lèi)的任務(wù),極大提升了應(yīng)用與落地的效率。 基于此,大語(yǔ)言模型為解決人機(jī)共駕問(wèn)題提供了一種新的思路。 為了探索大語(yǔ)言模型在自動(dòng)駕駛?cè)藱C(jī)交互領(lǐng)域的應(yīng)用,研究人員提出了「Co-Pilot」架構(gòu),用于實(shí)現(xiàn)乘客、大語(yǔ)言模型以及車(chē)輛之間的交互。 為了驗(yàn)證方案的可行性,研究人員設(shè)計(jì)了兩個(gè)不同種類(lèi)的任務(wù)對(duì)其進(jìn)行測(cè)試,實(shí)驗(yàn)效果達(dá)到了預(yù)期。

wKgaomVasxaACk5lAAAuhh9-KLM647.png

Co-Pilot:架構(gòu)與核心 Co-Pilot架構(gòu)如下圖所示:

wKgaomVasxaAN8_CAAQe80OGhHo120.png

Co-Pilot主體機(jī)構(gòu)包含了以下模塊:

1. 編碼器:將必要的信息組成提示,通過(guò)專用API發(fā)送至大語(yǔ)言模型。

2. LLM:大語(yǔ)言模型,本工作使用ChatGPT(GPT3.5-turbo-0301)。

3. 解碼器:將自然語(yǔ)言回應(yīng)解析為指令或數(shù)據(jù),用于車(chē)輛的交互與控制。

4. 保險(xiǎn)機(jī)制:考慮到大語(yǔ)言模型作為概率模型的本質(zhì),現(xiàn)階段難以杜絕其在回答中出錯(cuò),故預(yù)留該保險(xiǎn)機(jī)制防止存在明顯錯(cuò)誤的指令影響車(chē)輛運(yùn)行。

5. 記憶機(jī)制:保存Co-Pilot完成任務(wù)所必須的數(shù)據(jù)及其他信息,作為輸入的重要組成部分,可在工作過(guò)程中被實(shí)時(shí)更新。

Co-Pilot主要擁有兩種工作流程:

1. 實(shí)現(xiàn)流程:Co-pilot依據(jù)不同任務(wù)完成一次工作周期的流程。

2. 調(diào)優(yōu)流程:車(chē)輛專家依據(jù)不同任務(wù)調(diào)整記憶機(jī)制的前置優(yōu)化流程。

記憶機(jī)制 本文按照人類(lèi)認(rèn)知心理學(xué)對(duì)大語(yǔ)言模型內(nèi)部的知識(shí)儲(chǔ)存進(jìn)行模擬[2],提出了記憶機(jī)制用來(lái)劃分自動(dòng)駕駛場(chǎng)景中可能涉及到的信息,旨在全面提升Co-Pilot信息利用效率。

wKgaomVasxaAR_61AAFeAoYkHPg447.png

專家主導(dǎo)的黑箱優(yōu)化 該方法利用黑箱優(yōu)化中在低維空間進(jìn)行無(wú)梯度優(yōu)化的思想,利用專家的主觀標(biāo)注來(lái)評(píng)估任務(wù)完成效果,從而更新記憶中的內(nèi)容來(lái)增強(qiáng)提示詞,使得LLM進(jìn)行少樣本學(xué)習(xí)。

wKgaomVasxaAEnGvAABy5aEgdBE347.png

wKgaomVasxaACjw6AAAtJ0fTuoM632.png

仿真實(shí)驗(yàn)

為了驗(yàn)證Co-Pilot架構(gòu)的可靠性,本文設(shè)計(jì)了兩個(gè)任務(wù),在以MATLAB/Simulink為基礎(chǔ)的仿真平臺(tái)中開(kāi)展。 實(shí)驗(yàn)一:軌跡跟隨控制器選擇 在該實(shí)驗(yàn)中,假設(shè)有一輛自動(dòng)控制的汽車(chē)在預(yù)設(shè)路徑上行駛,研究人員給定Co-Pilot當(dāng)前車(chē)輛狀態(tài)、路段情況等信息,要求其選擇最符合當(dāng)前乘客意圖(如保證速度、緊隨軌跡、體驗(yàn)舒適)的運(yùn)動(dòng)控制器。 運(yùn)動(dòng)控制器為已有預(yù)設(shè)模塊,分別為NMPC控制器、Stanley + Preview控制器、PID控制器。wKgaomVasxaAfvE2AAVoOMsi5sw355.png▲賽道總覽

wKgaomVasxeAcgl3AAOHZ3I3cGg642.png

▲實(shí)驗(yàn)一的Co-Pilot具體結(jié)構(gòu)

在調(diào)優(yōu)環(huán)節(jié)中,研究人員分別對(duì)語(yǔ)義記憶與情景記憶進(jìn)行了更新,其中語(yǔ)義記憶僅能提供對(duì)控制器的種類(lèi)(A1)或定性描述(A2),而情景記憶可以提供對(duì)控制器在過(guò)去相似場(chǎng)景下的具體表現(xiàn)(A3)。 賽道被分為五個(gè)區(qū)段,研究人員根據(jù)Co-Pilot是否在各區(qū)段選出了最符合當(dāng)前乘客意圖的控制器進(jìn)行打分(每個(gè)區(qū)段最優(yōu)1分,次優(yōu)0.5分,最差0分,賽道總分最高為5分),分析不同記憶對(duì)于Co-Pilot表現(xiàn)的影響,研究人員在「精確跟蹤」與「保持穩(wěn)定」兩種意圖下分別測(cè)試,測(cè)試結(jié)果顯示,A1僅取得3分,Co-Pilot在所有區(qū)段均選擇了NMPC控制器。 由于此時(shí)提供的信息有限,其只能根據(jù)訓(xùn)練中積攢的常識(shí)「NMPC的控制效果很好」做出判斷。A2取得了7.5分,而A3取得了8.5分,證明情景記憶在相似任務(wù)中對(duì)Co-Pilot的推理最有幫助,使其可結(jié)合人類(lèi)意圖給出合理的反應(yīng)。 接著,研究人員使用了調(diào)優(yōu)后的A3提示模式開(kāi)展了更復(fù)雜的實(shí)驗(yàn)。在此實(shí)驗(yàn)中,五個(gè)區(qū)段的人類(lèi)意圖不再保持一致且引入了更口語(yǔ)化表達(dá)的新意圖「刺激」。 實(shí)驗(yàn)結(jié)果如下圖所示,Co-Pilot在每個(gè)區(qū)段都能選出最符合乘客意圖的控制器(由于控制器在切換時(shí)受到上一區(qū)段的車(chē)輛狀態(tài)影響,導(dǎo)致被選控制器的效果與預(yù)期可能存在細(xì)微差異)。

wKgaomVasxeAdZ-9AAQhwVC8f88873.png

實(shí)驗(yàn)二:雙移線避障軌跡規(guī)劃 在本實(shí)驗(yàn)中,研究人員將重點(diǎn)轉(zhuǎn)移到規(guī)劃類(lèi)任務(wù),向Co-Pilot描述當(dāng)前路況,并要求其給出未來(lái)10s內(nèi)的路徑。

wKgaomVasxeACN2zAAEUB0kzmvE001.png

wKgaomVasxeAPv4MAAMX1EtZOxE410.png

在調(diào)優(yōu)環(huán)節(jié)中,研究人員更加側(cè)重對(duì)于程序記憶的組織與優(yōu)化,語(yǔ)義記憶與情景記憶中包含的信息基本不存在差異。在此的前提下,不同提示帶來(lái)的顯著結(jié)果差異更加值得深入探究。

wKgaomVasxeADavMAA4px9zIONw785.png

▲四種提示的區(qū)別以及十次測(cè)試的平均得分情況(打分依據(jù):合理性滿分5分、完成度滿分3分、正確性滿分2分)

wKgaomVasxeAf9P1AAEZwm49ED4373.png▲四種提示下的代表軌跡 在使用B4提示的前提下,進(jìn)一步引入不同種類(lèi)的乘客意圖,得到的代表性軌跡如下,可以看出在給出正確避讓軌跡的基礎(chǔ)上,Co-Pilot可以進(jìn)一步調(diào)整軌跡使其符合乘客意圖。

wKgaomVasxiAJfpdAAEG0jwhSMs524.png

▲不同乘客意圖的代表軌跡,均符合乘客意圖

wKgaomVasxiAcOctAAAr2pbNr48692.png

結(jié)果討論 實(shí)驗(yàn)中我們可以注意到,提示中不同記憶的組合,對(duì)于LLM的表現(xiàn)有著顯著影響。 1. LLM可根據(jù)常識(shí)以及記憶中包含的信息進(jìn)行推理,在提供的信息不足以實(shí)現(xiàn)合理推斷時(shí),LLM可根據(jù)其訓(xùn)練中積累的經(jīng)驗(yàn)做出決策; 3. 提示中的程序記憶在任務(wù)本身的描述上有時(shí)并不存在本質(zhì)區(qū)別,但卻對(duì)LLM的表現(xiàn)產(chǎn)生了很大影響。 這些現(xiàn)象引出了后續(xù)可能值得研究的更多問(wèn)題:類(lèi)似交通等復(fù)雜場(chǎng)景應(yīng)該如何高效描述以發(fā)揮LLM的優(yōu)勢(shì)?LLM內(nèi)部實(shí)現(xiàn)推理/完成任務(wù)的機(jī)制究竟如何?這些問(wèn)題與大模型乃至人工智能的可解釋性、安全性等重要問(wèn)題息息相關(guān)。 wKgaomVasxiAehcCAAAtTL4L6hI518.png未來(lái)展望與挑戰(zhàn) Co-Pilot是一種創(chuàng)新的嘗試,它將LLM應(yīng)用于人機(jī)混合智能[3]。LLM大大提高了人機(jī)通信的效率,使人類(lèi)和機(jī)器更好地理解彼此。 人類(lèi)專家對(duì)Co-Pilot進(jìn)行調(diào)優(yōu)的過(guò)程可以被視為系統(tǒng)的自適應(yīng)學(xué)習(xí)。這使得深入的人機(jī)合作成為可能,并且在測(cè)試和調(diào)整人工智能系統(tǒng)方面具有巨大潛力。

wKgaomVasxiADncSAAF4HQLwDW4552.png

▲LLM與現(xiàn)有平行學(xué)習(xí)架構(gòu)[4]相結(jié)合,可進(jìn)一步提升機(jī)器學(xué)習(xí)的效率

另一方面,正如本文實(shí)驗(yàn)中展示的,大語(yǔ)言模型通過(guò)海量數(shù)據(jù)訓(xùn)練得到的常識(shí)能在其工作中發(fā)揮重要作用。 后續(xù)在此基礎(chǔ)上,多模態(tài)混合大模型(如視覺(jué)+語(yǔ)言模態(tài))能夠進(jìn)一步打通「感知-規(guī)劃-執(zhí)行」的流程,使得此類(lèi)大模型可勝任自動(dòng)駕駛、機(jī)器人等需要與現(xiàn)實(shí)世界交互的復(fù)雜任務(wù)[5]。 當(dāng)然,研究過(guò)程中涌現(xiàn)出的許多潛在挑戰(zhàn)也值得關(guān)注:例如,怎樣進(jìn)一步提升LLM的性能?如何保證LLM表現(xiàn)得一致性、穩(wěn)定性?在面對(duì)更復(fù)雜的動(dòng)態(tài)場(chǎng)景時(shí),如何保證LLM正確完成任務(wù)? wKgaomVasxiAQfTBAAAvmrE3n7I919.png 總結(jié) 本工作提出了一種將大語(yǔ)言模型直接用于人機(jī)共駕任務(wù)的Co-Pilot架構(gòu),并設(shè)計(jì)對(duì)應(yīng)實(shí)驗(yàn)初步證明了架構(gòu)的可靠性以及大語(yǔ)言模型在自動(dòng)駕駛類(lèi)任務(wù)中的可適用性,討論了相關(guān)領(lǐng)域研究的潛在機(jī)遇及挑戰(zhàn)。 該項(xiàng)工作已于近日發(fā)表于IEEE Transactions on Intelligent Vehicles,來(lái)自清華大學(xué)深圳國(guó)際研究生院的王詩(shī)漪以及來(lái)自清華大學(xué)自動(dòng)化系的朱宇軒為本文共同第一作者,通訊作者為清華大學(xué)自動(dòng)化系李力教授。其他合著者為清華大學(xué)李志恒副教授,中科院自動(dòng)化研究所王雨桐助理研究員,以及麻省理工學(xué)院賀正冰高級(jí)研究員。

wKgaomVasxiADrVVAAAC0jQz1zo926.svg

參考文獻(xiàn)

wKgaomVasxiADrVVAAAC0jQz1zo926.svg ?[1] S. Wang, Y. Zhu, Z. Li, Y. Wang, L. Li, Zhengbing He, "ChatGPT as your vehicle Co-Pilot: An initial attempt," IEEE Transactions on Intelligent Vehicles, https://ieeexplore.ieee.org/document/10286969/[2] T. Sumers, S. Yao, K. Narasimhan, T. L. Griffiths, “Cognitive Architectures for Language Agents.” arXiv, Sep. 05, 2023. doi: 10.48550/arXiv.2309.02427.[3] L. Li, Y. Lin, Y. Wang, F.-Y. Wang, "Simulation driven AI: From artificial to actual and vice versa," IEEE Intelligent Systems, vol. 38, no. 1, pp. 3-8, 2023.[4] L. Li, Y.-L. Lin, N.-N. Zheng, F.-Y. Wang, "Parallel learning: A perspective and a framework," IEEE/CAA Journal of Automatica Sinica, vol. 4, no. 3, pp. 389-395, 2017.[5] D. Fu, X. Li, L. Wen, M. Dou, P. Cai, B. Shi, Y. Qiao, “Drive Like a Human: Rethinking Autonomous Driving with Large Language Models,” arXiv, Jul. 14, 2023,doi: 10.48550/arXiv.2307.07162.


原文標(biāo)題:把ChatGPT塞進(jìn)副駕駛!清華、中科院、MIT聯(lián)合提出Co-Pilot人機(jī)交互框架

文章出處:【微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:把ChatGPT塞進(jìn)副駕駛!清華、中科院、MIT聯(lián)合提出Co-Pilot人機(jī)交互框架

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    新的人機(jī)交互入口?大模型加持、AI眼鏡賽道開(kāi)啟百鏡大戰(zhàn)

    電子發(fā)燒友網(wǎng)報(bào)道(文/莫婷婷)隨著智能眼鏡的出現(xiàn),加之AI技術(shù)的應(yīng)用,AI智能眼鏡被認(rèn)為是下一代人機(jī)交互的入口。在今年,不少品牌廠商都推出了AI智能眼鏡新品,包括李未可推出的Meta Lens
    的頭像 發(fā)表于 11-21 00:57 ?1805次閱讀
    新的<b class='flag-5'>人機(jī)交互</b>入口?大模型加持、AI眼鏡賽道開(kāi)啟百鏡大戰(zhàn)

    具身智能對(duì)人機(jī)交互的影響

    在人工智能的發(fā)展歷程中,人機(jī)交互一直是研究的核心領(lǐng)域之一。隨著技術(shù)的進(jìn)步,人機(jī)交互的方式也在不斷演變。從最初的命令行界面,到圖形用戶界面,再到現(xiàn)在的自然語(yǔ)言處理和語(yǔ)音識(shí)別,每一次技術(shù)的突破都極大
    的頭像 發(fā)表于 10-27 09:58 ?266次閱讀

    字節(jié)跳動(dòng)與清華AIR成立聯(lián)合研究中心

    近日,清華大學(xué)智能產(chǎn)業(yè)研究(AIR)與字節(jié)跳動(dòng)共同宣布成立“可擴(kuò)展大模型智能技術(shù)聯(lián)合研究中心”(SIA Lab),并在清華大學(xué)舉行了隆重的成立儀式。
    的頭像 發(fā)表于 10-12 15:24 ?333次閱讀

    聚徽-工控一體機(jī)是如何實(shí)現(xiàn)人機(jī)交互

    工控一體機(jī)實(shí)現(xiàn)人機(jī)交互的方式是多種多樣的,結(jié)合搜索結(jié)果,我們可以歸納出以下幾種主要的實(shí)現(xiàn)方式:
    的頭像 發(fā)表于 09-10 09:31 ?290次閱讀

    基于傳感器的人機(jī)交互技術(shù)

    基于傳感器的人機(jī)交互技術(shù)是現(xiàn)代科技發(fā)展的重要領(lǐng)域之一,它極大地推動(dòng)了人機(jī)交互的便捷性、自然性和智能性。本文將詳細(xì)探討基于傳感器的人機(jī)交互技術(shù),包括其基本原理、關(guān)鍵技術(shù)、應(yīng)用領(lǐng)域以及未來(lái)發(fā)展趨勢(shì)。
    的頭像 發(fā)表于 07-17 16:52 ?660次閱讀

    人機(jī)界面交互方式的介紹

    人機(jī)界面(Human-Computer Interaction, HCI)是研究人與計(jì)算機(jī)之間交互方式的學(xué)科。隨著計(jì)算機(jī)技術(shù)的發(fā)展,人機(jī)交互方式也在不斷地演變和創(chuàng)新。以下是對(duì)各種人機(jī)交互
    的頭像 發(fā)表于 07-01 14:22 ?668次閱讀

    人機(jī)交互界面是什么_人機(jī)交互界面的功能

    人機(jī)交互界面(Human-Computer Interaction Interface,簡(jiǎn)稱HCI或HMI),也被稱為人機(jī)界面(MMI)、操作員界面終端(OIT)、本地操作員界面(LOI)或操作員
    的頭像 發(fā)表于 06-22 11:03 ?2190次閱讀

    工業(yè)平板電腦在人機(jī)交互中的應(yīng)用

    工業(yè)平板電腦在人機(jī)交互(Human-Machine Interaction,HMI)中扮演著至關(guān)重要的角色,它們通過(guò)直觀的界面和強(qiáng)大的計(jì)算能力,極大地提升了工業(yè)環(huán)境下的操作效率和用戶體驗(yàn)。以下是工業(yè)平板電腦在人機(jī)交互中的具體應(yīng)用:
    的頭像 發(fā)表于 06-18 12:00 ?260次閱讀

    人機(jī)交互與人機(jī)界面的區(qū)別與聯(lián)系

    隨著信息技術(shù)的飛速發(fā)展,人機(jī)交互(Human-Computer Interaction,HCI)已成為現(xiàn)代社會(huì)不可或缺的一部分。人機(jī)交互技術(shù),作為實(shí)現(xiàn)人與計(jì)算機(jī)之間有效通信的橋梁,不僅改變了我們
    的頭像 發(fā)表于 06-07 15:29 ?823次閱讀

    芯海科技“壓容二合一SoC”系列芯片打造極致人機(jī)交互體驗(yàn)

    5月7日晚,蘋(píng)果春季新品發(fā)布特別活動(dòng)推出全新升級(jí)的Apple Pencil Pro,持續(xù)深度布局壓力觸控人機(jī)交互領(lǐng)域。
    的頭像 發(fā)表于 05-11 10:00 ?454次閱讀
    芯海科技“壓容二合一SoC”系列芯片打造極致<b class='flag-5'>人機(jī)交互</b>體驗(yàn)

    人機(jī)交互的三個(gè)階段 人機(jī)交互的常用方式

    機(jī)交互經(jīng)歷的三個(gè)階段:命令行界面交互階段、圖形用戶界面交互階段、自然和諧的人機(jī)交互階段。
    的頭像 發(fā)表于 03-13 17:25 ?2805次閱讀

    人機(jī)交互系統(tǒng)的發(fā)展史及過(guò)程步驟

    人機(jī)交互系統(tǒng)還包括用戶界面(UI),它是用戶與系統(tǒng)之間進(jìn)行信息交流和控制活動(dòng)的載體。用戶界面可以是軟件系統(tǒng)界面,通過(guò)顯示器呈現(xiàn)系統(tǒng)信息,并接收來(lái)自用戶的視覺(jué)、聽(tīng)覺(jué)等感官的輸入。
    的頭像 發(fā)表于 03-11 17:15 ?2177次閱讀
    <b class='flag-5'>人機(jī)交互</b>系統(tǒng)的發(fā)展史及過(guò)程步驟

    龍芯中科中科信息簽訂合作框架協(xié)議

    1月24日,龍芯中科技術(shù)股份有限公司與中科院成都信息技術(shù)股份有限公司(以下簡(jiǎn)稱“中科信息”)合作框架簽約儀式在成都興隆湖畔科學(xué)城園區(qū)舉行。
    的頭像 發(fā)表于 01-26 11:44 ?793次閱讀

    人機(jī)交互技術(shù)有哪幾種 人機(jī)交互技術(shù)的發(fā)展趨勢(shì)

    人機(jī)交互技術(shù)是指人與計(jì)算機(jī)之間通過(guò)各種交互方式進(jìn)行信息傳遞、操作和控制的技術(shù)。隨著科技的進(jìn)步,人機(jī)交互技術(shù)也在不斷發(fā)展創(chuàng)新。以下將介紹人機(jī)交互技術(shù)的幾種常見(jiàn)形式以及當(dāng)前的發(fā)展趨勢(shì)。 一
    的頭像 發(fā)表于 01-22 17:47 ?3408次閱讀

    基于人機(jī)交互界面的石墨烯傳感器研究進(jìn)展

    石墨烯傳感器由于具有包括柔性、重量輕、易于集成和出色的電學(xué)性能等優(yōu)點(diǎn),在元宇宙研究中展現(xiàn)出優(yōu)勢(shì)。在過(guò)去10年里,清華大學(xué)任天令教授團(tuán)隊(duì)專注于開(kāi)發(fā)面向人機(jī)交互和醫(yī)療健康的先進(jìn)石墨烯傳感器,積累了豐富的經(jīng)驗(yàn),做出了優(yōu)秀的成果。
    發(fā)表于 11-30 17:47 ?562次閱讀
    基于<b class='flag-5'>人機(jī)交互</b>界面的石墨烯傳感器研究進(jìn)展