觸摸屏技術的回顧
觸摸屏技術至少可以追溯到上世紀70年代的美國伊利諾伊大學,當時科學家們把這項實驗室里的最新成果安裝到了PLATO IV計算機上用于課堂輔助教學,觸摸屏由此第一次走出實驗室正式進入實際應用階段。不過,觸摸屏的技術并不成熟,商用價值在此后的很長時間內也并沒有被發掘出來。到了90年代,觸摸屏出現在高端PDA(年紀稍長的讀者一定還記得快譯通和文曲星)中,可惜仍然不溫不火。
一方面,PDA的市場規模并不大,另一方面由于觸摸屏的精度有限,大多數PDA用戶還是更喜歡直接用實體鍵盤操作。2004年,任天堂的掌上游戲機NDS在全球熱賣,其最大的賣點就是NDS擁有兩塊屏幕并且其中一塊是觸摸屏,于是觸摸屏隨著NDS的流行而進入了更多人的視野。
不過,直到那時候,觸摸屏的使用還是局限于特定的人群。 真正讓觸摸屏走進千家萬戶還是要歸功于蘋果的喬幫主。2007年,初代iPhone發售,它重新定義了智能手機。在iPhone發售之前,智能手機的定義是“用戶能夠自主安裝軟件的手機”,而在iPhone發售之后,智能手機的定義變成了“屏幕可以滑的手機”,觸摸屏對于iPhone來說是標志性不可或缺的模塊。實際上,在手機上搭載觸摸屏蘋果并非首創,但是蘋果iPhone使用觸摸屏完全更新了手機的操作方式,在iPhone中引入了拖曳,縮放等手勢操作,極大地改善了用戶的操作體驗。隨著iPhone銷量節節攀升,三星、HTC等公司也不甘示弱,紛紛推出了搭載觸摸屏且操作方式類似iPhone的智能手機。一夜之間,地鐵上再也聽不到手機的按鍵聲,因為所有人都開始用觸摸屏“滑”手機。
觸摸屏首次出現在PLATO IV計算機中(左上,此后陸續出現在快譯通(右上),NDS(左下)等設備中,最后蘋果推出的iPhone(右下)讓觸摸屏真正走進千家萬戶
在iPhone推出之后,觸摸屏并沒有停止更新。
第一代iPhone使用的是電阻觸摸屏,可以支持基本的觸控交互。之后,蘋果iPhone逐漸開始使用電容屏,極大地提升了操作手感,幾乎使滑手機屏幕變成了一種享受。另一方面,為了使手機變得更輕更薄,屏幕制造技術也經歷了out-of-cell到on-cell直至最薄的in-cell。相對于十年前的觸摸屏,今天的觸摸屏更薄,操作手感更好。
| 突破二向箔的束縛:三維觸控
然而,人們對觸摸屏交互方法的探索并沒有到此為止。這里不妨再梳理一下手機與用戶交互方式的進化過程。
最初,用戶只能通過按手機上若干位置固定的按鍵來操作手機,這種方式可以稱作一維的操作方式。在蘋果引入觸摸屏以及手勢操作后,用戶可以在手機觸摸屏的二維空間里自由動作,因此可以稱作二維的操作方式。如果我們的觸摸屏不再進化,那么用戶與手機的交互維度將會被限制在二維,就像《三體》中被二向箔擊中的文明一樣。
很自然地,我們會想到:既然人類生活在三維的空間里,為什么用戶與設備的交互只能是在二維空間里呢?有沒有可能實現三維的交互方法呢?
要實現三維交互,就必須能夠實時捕捉到用戶的手在三維空間中的坐標,并且根據用戶手的三維坐標(及其變化)做出相應回應。
幸運的是,科學家和工程師們已經開始開發三維觸控來實現超越二維的人機交互。在具體地分析技術之前,我們不妨先來展望一下三維人機交互方法都能帶來哪些革命性的應用?
1、游戲(含VR)
說到三維觸控,大家首先想到的就是在游戲中的應用。確實,游戲是所有應用中對于交互方式要求最高的。使用與游戲相配合的專用交互設備,玩家才能完全體會到游戲的魅力(不信你用鍵盤玩賽車游戲試試),這也是為什么一些游戲需要開發專用外設(如早年《熱舞革命》的跳舞毯,《吉他英雄》的吉他,各類賽車游戲的方向盤等等)。
當觸摸屏在手機上剛普及時,《憤怒的小鳥》,《水果忍者》等一批完美利用觸摸屏交互特性的游戲也獲得了大家的青睞。當觸摸屏可以捕捉到人手在三維中的動作時,在游戲中可以實現許多新的玩法。一個非常有潛力的方向就是和VR技術結合,例如類似《水果忍者》的游戲可以在三維空間內通過玩家的手勢進行,《街頭霸王》等格斗游戲的出招可以由玩家的真實手勢觸發,從而使玩家的代入感大大增加。
3D觸屏結合VR技術可以極大地增加游戲可玩性
2、增強現實(Augmented Reality, AR)
三維觸摸屏很有潛力成為AR應用中人機交互的基礎技術。
在AR技術中,用戶佩戴的專用眼鏡作為顯示屏,通過計算機視覺技術將AR的圖像界面與現實世界有機地結合在一起并投射到用戶眼睛的視網膜上。當用戶的手做出動作時,AR設備必須能準確地捕捉到手的實時位置并根據用戶手的動作做出相應反應。三維觸摸屏正是能夠捕捉到手的精確位置,從而成為AR人機交互的基礎技術。在AR技術普及后,不僅僅手機、電腦會用到三維觸摸屏,甚至日常家具(如桌子,櫥柜)的表面都可能需要支持三維觸摸技術,從而讓用戶隨時隨地能使用AR。
增強現實將計算機圖像與現實結合在一起(左),AR與用戶交互方式需要能精確地捕捉用戶手的三維位置(右)
| 三維觸摸屏候選技術
目前三維觸摸屏技術尚處于探索階段。現在最有希望商用的三維觸摸屏技術有兩種,一種基于毫米波雷達,另一種基于電容感應。
基于毫米波雷達技術的三維觸摸技術以Google的Project Soli為代表。今年五月份,Google正式發布了代號為Project Soli的三維觸控模組。
那么,Project Soli的毫米波雷達是如何實現三維觸控的呢?首先我們要清楚雷達的原理。
大家一定都看到過探照燈:在漆黑的天空中,探照燈的光束方向上的物體位置可以被看得一清二楚。探照燈通過不停地旋轉改變光束照射方向,于是整個天空中所有方向上物體的位置就可以被一一探知。雷達也是一樣,不過雷達發射的不是肉眼可以看到的光束,而是電磁波波束,并通過檢測電路來探知波束方向上物體的位置。很顯然,雷達也可以用在三維觸控上:手就是需要檢測的物體,通過雷達我們可以實時監控手在空間中的位置并讓設備做出相應反應從而實現三維的人機交互,這也是Project Soli的原理。
探照燈通過改變光束方向來探測目標(左上),雷達通過改變波束方向來掃描目標(右上),Project Soli利用和雷達原理來探測手的位置從而實現三維觸控(下)
那么什么是毫米波雷達呢?
它與電視里出現的那種巨大的雷達有什么區別呢?原來,雷達的分辨率和它發射電磁波的波長有關,發射的電磁波波長越短則分辨率越好,也即對物體探測位置越精確。但是,電磁波波長越短則在空氣中的衰減會越大,因此如果物體距離雷達很遠就會檢測不到。
因此物體探測精度和探測距離是一對矛盾。
傳統軍用和警用雷達使用的是微波波段,因為傳統雷達需要檢測的物體通常尺寸很大,微波波段能做到大約10cm級別的分辨精度已經很夠用了,一方面傳統雷達需要有足夠的探測距離才能滿足使用需求。然而,10cm級別的分辨精度對于三維觸控來說完全不夠用。
另一方面,三維觸控所需要檢測的距離很短,通常手距離觸摸屏的距離不會超過20cm。
最后,三維觸控模組的體積必須足夠小。
因此,Project Soli使用了波長為毫米數量級的毫米波雷達,理論上可以實現毫米級別的分辨精度。該雷達可以集成到硬幣大小的芯片中,從而可以安裝在各類設備上。
下圖是Project Soli使用的毫米波雷達傳感芯片。
芯片大小約為8mm x 10mm,上面白色的小點應當是用來把芯片固定到主板上的焊錫球(bump)。芯片上還有天線陣列(綠色框內)用來實現波束成型。根據天線的大小我們可以估計出Project Soli使用的毫米波雷達波長大約在2mm-5mm之間。
毫米波雷達用來實現三維觸控可以達到很高的精度。然而,它的劣勢在于功耗太大。目前即使最領先的毫米波雷達芯片也至少需要100mW以上的功耗,因此用在移動設備上會導致電池很快就用完了。這樣一來,毫米波雷達觸控比較適合使用在電源不是問題的設備上,例如大型游戲機或者電視機上的三維觸控。
另一種非常有前景的三維觸控技術是電容感應技術。毫米波雷達技術利用的是動態電磁波,而電容感應技術利用的是靜電場。電容感應型三維觸控技術是目前電容觸摸屏的增強版:電容觸摸屏可以感應到與屏幕接觸的手的位置,而電容感應式三維觸控技術則增強了感應范圍,在手尚未接觸到屏幕時就能感應到手在空間中的三維位置,從而實現三維觸控。
為了理解電容感應式三維觸控的原理,我們不妨想象有許多熱傳感器組成的陣列,而傳感器陣列上方有一個火苗(熱源)。根據傳感器的相對溫度分布(即哪里溫度比較高,哪里溫度比較低)我們可以知道火苗在哪一個傳感器上方(即火苗的二維位置),根據傳感器的絕對溫度(即傳感器探測到的絕對溫度有多高)我們可以知道火苗離傳感器有多遠(即火苗在空間中第三維的位置)。結合這兩條信息我們可以得到火苗在空間中的三維位置。
熱傳感器陣列可以通過相對溫度分布和絕對溫度來判斷火苗在三維空間中的位置
電容傳感式三維觸控的原理也是這樣,只不過這里探測的不是火苗帶來的溫度改變而是手指帶來的靜電場改變。通過探測哪一個電容傳感器探測到的靜電場改變最大我們可以感應到手指的二維位置,而通過電容傳感器探測到靜電場改變的絕對強度我們可以感應到手指的第三維坐標,從而實現三維觸控。
電容傳感式三維觸控的優勢在于傳感器的功耗可以遠遠小于毫米波雷達(大約僅僅是毫米波雷達的十分之一甚至更小),因此可以安裝在對功耗比較敏感的移動設備上。但是電容傳感也有自己的問題需要解決,就是傳感器之間的互相干擾。我們同樣拿熱傳感器感應火苗位置來作類比。現在我們假設除了火苗會發熱以外,熱傳感器自己也會發熱。這樣一來,如果火苗離熱傳感器距離較遠,那么它帶來的溫度變化相對于熱傳感器自己的發熱可能微不足道,從而熱傳感器需要相當高的探測精度才能根據溫度變化檢測到火苗的位置。
電容傳感式三維觸控也是如此:電容傳感器之間的電場會互相耦合形成很大的電容,因此手指造成的靜電場變化需要精度非常高的探測器才能檢測到。好在隨著電路技術的發展,即使微小的變化可以由高精度模擬放大器檢測到,因此電容傳感式三維觸控在未來的前景非常光明。
目前在電容傳感式三維觸控已經出現在微軟的pre-touch screen demo中,該demo可以實現離屏幕較近距離(1-2cm)的三維觸控。
另一方面,不少頂尖高校的實驗室也展示了基于電容傳感原理的三維觸控模塊。
例如,普林斯頓大學由Naveen Verma教授領銜的團隊成功地展示了基于薄膜電子的三維觸控(目前成立了SpaceTouch公司),有機會可以用在未來可彎曲屏幕上。
此外,UCLA由Frank Chang教授和Li Du博士帶領的Airtouch團隊使用傳統低成本CMOS工藝制作的芯片配合普通手機觸摸屏已經可以實現距離屏幕10cm范圍內的三維觸控。該芯片最初于2015年在國際固態半導體會議上發表(ISSCC,全球芯片領域最高規格的會議,號稱芯片界的奧林匹克盛會),之后團隊又乘熱打鐵將深度學習與三維觸控芯片結合在一起用于高精度三維手勢識別,并應邀在2016年的自動設計會議(DAC,全球電子設計領域最高規格的會議之一)發表了最新成果。
Airtouch芯片功耗僅2 mW(遠遠小于Google的毫米波雷達觸控方案),且與普通觸摸屏兼容,將來可以廣泛地應用于手機等移動設備的三維觸控。
| 結語
觸控技術經歷數十年的發展,到今天已經能夠超越傳統二維觸控而進入三維觸控領域了。三維觸控會帶來人機交互方式的革新,可以用于游戲、AR/VR等等應用中。目前較有希望商用的三維觸控方案包括毫米波雷達(Google Project Soli為代表)和電容感應(UCLA Airtouch為代表)。我們可望在不久的將來就看到三維觸控走入千家萬戶,成為人機交互的基本方式。
評論
查看更多