說起近年來手機上出現的新玩意兒,AI芯片可能是其中最耀眼的明星。無論是安卓陣營還是iOS陣營,旗艦級別手機所使用的SoC中,AI算力總能成為著力吆喝的賣點。例如最近華為發布麒麟990芯片,其AI模塊的算力相比前代大幅提升數倍,甚至登頂安卓陣營AI Benchmark榜單;而在最新發布的iPhone 11當中,所使用的A13 Bionic仿生芯片也表現不俗,性能提升20%,每秒可執行1萬億次運算。可以說,AI芯片目前已經進入到了軍備競賽階段。
iPhone 11所使用的A13 Bionic芯片,AI性能是歷代之最
然而,和性能提升可以直觀感受到的CPU、GPU模塊不同,SoC當中的AI性能攀升,其實際應用場景一直令很多朋友感到迷茫——AI這么強,日常使用的APP似乎也沒太大變化,游戲該咋玩還是咋玩。但AI芯片是否真的雞肋?這也未必。
軟件應用往往滯后于硬件發展。觸摸屏并非是什么新鮮事物,但直到iOS橫空出世才讓人找到正確的交互方式;NFC早在安卓2.X時代就已經實裝,但直到近年才迎來各種支付應用的廣泛支持。
AI芯片目前的應用范圍并不廣,大家可以感受到的,可能就是相機中場景的AI識別、人臉認證等等。隨著AI芯片算力的提升、軟件應用的完善,未來的APP到底能進化到怎樣的神奇地步?今天一起來聊聊吧。
·為何手機需要AI芯片?
作為近年最熱門的話題之一,AI這一字眼頻頻出現在各類科技資訊當中。而谷歌開發的圍棋AI Alpha Go一舉擊敗李世石、柯潔,更是令AI走進了聚光燈下。和傳統的算法相比,AI能夠讓計算機的某些舉止更接近人類,例如能夠識別圖像內容、識別句法語義等等,而這些,往往得益于使用神經算法來進行機器學習。
移動互聯網時代的到來令數據規模前所未有的龐大,這為AI提供了茁壯成長的土壤。這些數據成為了AI極其有價值的樣本,人們通過神經算法對這些樣本進行卷積分類,進行一遍又一遍的機器學習,輸出了不同權重的結果,并以此作為識別行為事物的判斷依據。從這方面來看,AI的本質是數據密集、算法先進、分類權重細致的統計學,通過不斷輸入數據、不斷卷積衡量權重,AI最終所能做出的判斷會無比接近甚至超越人類。
AI芯片能支持多種機器學習模型
由此可見,AI是依賴特定的神經算法實現的,這個任務交給普通的CPU來做,效率比較低下——CPU屬于通用計算單元,暴力運行某種算法并非其特長,例如CPU挖礦的效率就遠比不上專門為HASH算法特制的ASIC礦機芯片。而AI芯片正是為密集處理數據的神經網絡算法特制的,例如華為的麒麟990就可以支持包括VGG、VDSR等在內的90%視覺神經網絡計算模型。
換言之,AI芯片能否發揮其功用,關鍵在于軟件應用是否對相應的神經網絡算法有著良好的支持和運用。隨著APP不斷進化,AI會越來越多地應用到實際當中,出于算力和能效方面的考慮,AI芯片(模塊)的確必不可少。而當AI芯片的性能日益強大時,下面這些神奇的應用可能會漸漸成為我們的日常。
·AI實時P視頻
在一些手機中,拍照APP可以通過AI來識別場景,然后成像風格根據不同的場景變化,例如拍植物增加色彩的鮮艷度讓花朵綠葉更加嬌艷欲滴,拍人像則增加柔光令皮膚更加白嫩等等。而在未來,AI在圖像識別方面的應用會更加廣泛,這在現在已經可以看到一些苗頭。
AI既然可以辨認出場景,自然也能辨認出圖像中的事物。例如一張照片中,哪里是人臉,哪里是寵物,哪里是背景,AI都可以做到比較準確的判斷。在這個前提下,AI實時“PS”視頻,也就成為了可能。
Google利用“卷積神經網絡(CNN)”技術將人從視頻背景中摳出來
例如Google之前就展示了一項名為“卷積神經網絡(CNN)”技術,它是一種機器學習算法。該技術使用了數以萬計的圖像數據用以機器學習,并且專門分辨出“頭發”、“頸部”、“皮膚”等處的數據,能夠輕而易舉地將人從背景中“摳”出來,背景自然也可以實時更換。從演示來看,Google的這項技術的確效果拔群,很輕松就能夠在雜亂的背景中辨認人像,然后只置換視頻中的背景,效果還非常自然。
Google利用AI實時視頻摳圖的演示
而相關的應用在國內也由開展,而且可能很快就會和消費者見面。華為在演示麒麟990的AI性能之時,也呈現了令人吃驚的實時摳圖功能。在AI的作用下,視頻中的人物能夠隨時變更背景,非常神奇。
華為對AI技術的新應用——實時P視頻
而AI算法顯然不僅僅能作用于背景,也可以作用于人像。前不久AI換臉APP“ZAO”的上線,引起了人們的熱烈討論。在ZAO應用當中,只要上傳一段視頻,即可通過AI算法將其中的人臉換成另一個人的,這種偽造身份的玩法的確令人感到驚愕。而在未來的AI應用中,隨著算力的加強,這一過程可能在手機中就能夠實時完成,P一段子虛烏有的視頻,并非天方夜譚。
·AI去碼(圖像修復)
看到這個小標題,可能很多老司機就頓時不困了。如果說AI實時P視頻只是將已有的元素重新組合,例如場景換成另一個場景、人臉換成另一張人臉等;而AI去碼,則可謂是憑空畫餅,將原本不存在的事物添加上去,這在很多場景下都有極大用途。
一般而言,去馬賽克是需要人類“腦補”的工作。從原理來看,馬賽克屬于不可逆運算,把大量的小像素點合并到一個大的像素點,并取平均色,就制造成了馬賽克——很顯然,你是難以知道被攪勻之前的各個小像素的顏色是如何排布的。一般來說,要消除馬賽克,需要人進行想象腦補,然后把缺失的內容重新畫出來。而有了AI,人不再是必須了,Google Brain的算法能夠自動去除馬賽克,騎兵自動變步兵。
就算是不可名狀的馬賽克,AI技術也能修復成高清
Google Brain使用的是一種全新的像素遞歸超分辨率技術,通過大量高、低分辨率的采樣學習,然后得出規律來匹配修復結果。例如,Google Brain學習到了某種黑點是屬于眼鏡,那么在還原馬賽克的時候,就可以把這種黑點還原成眼睛。從測試來看,效果的確不同凡響。
這樣的AI技術有什么用?去除馬賽克只是特定場合的具體應用,類似的算法在很多時候都可以發揮作用——只要當圖像需要修復的時候,就用用武之地。例如拍照片手抖了失焦了,糊成一片該咋辦?傳統的方法可能就是簡單粗暴的銳化了,而如果拍照APP使用AI技術,就可以“腦補”回丟失的細節和銳度,給你一張盡量可用的照片。
·AI上色
既然AI能夠識別圖像內容、腦補細節,那么AI自動上色也就成為了可能。上色其實涉及到了創作層面,而創作被很多人視為人類和機器的鴻溝,但這在AI時代不那么靈了。借助AI技術,手機APP可以自動為黑白照片甚至線稿畫作來涂上適合的顏色。
類似的技術現在已經出現。照片處理自不必說,AI識別場景調節顏色和黑白照片上色并沒有本質上的區別;而給線稿上色,在之前曾被認為是不可思議的事情——電腦能夠讀懂線條勾勒的是何種輪廓、該輪廓還得填上適合的顏色,聽上去就如同魔法。不過Paintschainer推出的AI上色技術卻令人大吃一驚——它可以識別某部分屬于皮膚,某部分是頭發,某部分是衣服,某部分是背景,然后分別涂上適當的顏色。
Paintschainer的AI自動上色,可以精準辨認線稿
不僅如此,Paintschainer的上色范圍還相當精準,盡管線稿沒有封閉,但顏色依然會保留在適當的范圍,而不會涂得滿地都是——用過PS中油漆桶工具上色的朋友,應該知道這是什么意思。
這意味著,以后在手機中繪畫成為了可能。盡管手機的屏幕小且觸控并不算精確(相比數位板),但得益于AI已經能辨識線稿,因此手指繪畫粗糙的筆跡,就可以被AI完補為精細的描線,并填上適合的顏色。對于創作者而言,這大大節省了打磨具體畫技所需要的功夫,將更多精力留給設計、構思,提高了效率。
這種AI輔佐創作的技術,并不僅能用于攝影、繪畫,在作曲等領域也同樣適用。或許在不久后,對著手機哼一段旋律,AI自動幫你編好曲、選擇好演奏樂器、最后完成一段高質量曲子的日子,也已經并不遙遠。
·AI自動翻譯
語義識別可謂是AI另一大廣泛實裝的應用了。無論是語音識別,還是自動翻譯,都離不開精準的語義判斷。得益于AI,近年的機翻竟然也能說人話了——例如Google翻譯,已經基本做到了語句通順流暢,用來閱讀一些專業性不強的外文,Google翻譯綽綽有余。這是如何做到的呢?
這主要得益于Google翻譯引入了神經網絡和深度學習等人工智能算法,邁入了“神經機器翻譯(GNMT)”的時代。得益于人工智能和谷歌的大數據,谷歌翻譯對語言的解析有了遠比之前深入的理解,因此在長句、整篇翻譯方面有了長足的進步。
引入了GNMT后,Google翻譯的精度與日俱增,越來越像是說人話了
在未來,AI翻譯還會愈加強悍,也不僅僅局限于靜態的文字。例如在Android 10當中,引入了Live Caption(實時字幕)功能,借助機器學習,它能夠讓手機在播放任何視頻的時候,精準識別出音頻,并生成字幕。該技術顯然可以和AI翻譯結合,幫助人們啃下各地語言的生肉,大大減少交流的鴻溝。
得益于AI,安卓可以為任何視頻生成字幕,未來有望還能實時翻譯
另外,AI自動翻譯還可以用于語音交流。隨著處理速度和精準度的上升,手機安裝響應的APP后,化身同聲傳譯器也并非不可能,雖然對于一些專業詞句、地域文化梗的翻譯,可能還比不上人工,但對比現在已有的機翻,這無疑要好上太多。
·AI自動對話
自從蘋果推出了Siri,語音助手成為了人們關注的焦點之一。然而在大多數情況下,語音助手們的表現并不盡如人意,無法理解自然語義、對話機械、無法針對上下文內容應答等缺點,令語音助手如同“人工弱智”。而在AI的加持下,未來的語音助手們將會飛躍上新的臺階。
例如,Google Assistant就已經走在了進化的路上。在 I/O開發者大會上,Google演示了AI技術加持的Google Assistant,它能夠和人類對答如流,能夠識別上下文內容,話語也都非常符合邏輯,無論是內容還是語調都異常接近真人。無論是識別、應答還是任務的完成度,新的Google Assistant都遠比之前的語音助手表現出色。
得益于大數據和AI算法,Google Assistant的智能程度大大提升,甚至可以對答如流
這樣的進化,很大程度上得益于企業利用用戶數據訓練語音、語言模型——蘋果、谷歌、微軟、Facebook等大佬都被爆出干過這樣的事情。在未來,手機APP的語音交互或許會更加智能,但這種進化的代價卻以用戶隱私作為代價。我們到底該如何平衡技術發展的需求和隱私信息的保護?這恐怕是值得一直深究的問題。
·AI信息分類
智能分類在當前很多相冊服務中都已經初現雛形。例如在Google Photo中,照片可以根據題材、人物等自動歸類為風景照、建筑照、美食照、某個人的合照等等,查找起來非常方便。而智能分類的出現,很大程度上依賴于AI技術的發展——AI通過機器學習,得以辨認出照片場景、主體后,才讓智能分類成為可能。
目前AI對照片已經能夠進行比較精確的智能分類
而伴隨著AI的進步,智能分類擁有了更多可能。目前智能分類主要涉及照片,而在未來隨著AI芯片算力的加強,視頻的智能分類也將最終得以實現。而由于AI經過足夠訓練后,能夠較好地理解語言語義,因此將文稿按照其中內容進行分門別類,也成為了可能。類似的功用也可以作用于音頻中,某些音樂APP可以將音樂按照不同風格的旋律分類,例如舒緩、激烈、甜美等,而隨著AI芯片愈發強大,手機本地也可以完成這樣的任務。
也就是說,當AI發展到一定地步,手機中的相冊APP能夠按照內容整理照片、視頻庫可以自動分類不同內容的視頻、文件管理器可以將近似內容的文檔歸類在一起、音樂APP能夠識別風格各異的旋律,都有可能成為現實。而當AI將這些結合在一起,視頻的自動剪輯、踩點等應用,也將愈發成熟——目前微軟Windows 10中的相冊就已經初步提供了類似功能,但還不太智能,將來手機在AI芯片的加持下,利用相應的APP一鍵生成短視頻、Vlog等,將不再是夢。
AI行為調度
得益于大數據,AI能夠采集方方面面的信息,并給出一個統計學上的最優解。例如Google的Alpha Go,就在學習了大量對弈樣本后,得知了圍棋每一步的權重,從而擊敗最頂級的棋手。因此當AI的涉及面足夠廣,它就能以普通人所難以企及的全面視野,來為你安排生活中的點點滴滴,讓你真正感受到“智能”的精髓。
AI將能成為真正的智能管家
例如,很多人家中都購置了智能家電,但這些家電的調度仍不那么的“智能”——你需要為它們預設開啟、工作的時間段或者條件,雖然比傳統家電方便,但仍做不到根據你的實際行程,全自動為你安排家電的開啟。
例如當你設置了下班后自動提前開啟空調等待回家,但某天突然塞車,又不便操作手機,智能家電并不能因為這個調整自己的開啟時間,白白耗費電能。當你需要突然出差的時候,你還得手動調節智能家電的使用方案,更加不便。而如果管控智能家電的APP加入了AI相關技術,一切可能就變得不同了——APP會根據你的行程、身體情況、環境氣候等等,自動安排自己的工作時段、時長、模式,你甚至會感覺到電器上的開關功能按鈕是多余的——這才叫做智能家電嘛。
總結
AI的一大魅力在于找出大數據中的內在規律,從而讓功能的自動化實現成為可能,甚至能極大程度模糊人與機器間的界限。AI芯片目前仍處于起步階段,或許我們現在只能在少量應用場景中感受到它的存在,但隨著應用生態的完善,AI芯片將會為手機帶來更多神奇功用,期待AI芯片能在未來進一步發光發熱吧。
-
soc
+關注
關注
38文章
4122瀏覽量
217955 -
AI
+關注
關注
87文章
30211瀏覽量
268448 -
大數據
+關注
關注
64文章
8864瀏覽量
137308
發布評論請先 登錄
相關推薦
評論