人工智能的起源
從1955年到1956年,達特茅斯學院的助理教授約翰·麥卡錫(John McCarthy)被廣泛認為是人工智能(AI)之父。來自哈佛大學的馬文·明斯基(Marvin Minsky)、IBM的克勞德·香農(nóng)(Claude Shannon)和美國貝爾實驗室的納撒尼爾·羅切斯特(Nathaniel Rochester)共同創(chuàng)造了人工智能(AI)的概念,稱“如果機器可以使用不同的語言來形成抽象或概念,解決現(xiàn)在為人類保留的各種問題,并通過自主學習來改善自己,我們稱之為AI。
牛津詞典將人工智能定義為“能夠執(zhí)行通常需要人類智能的任務的計算機系統(tǒng)的理論和發(fā)展,例如視覺感知,語音識別,決策和語言之間的翻譯。
隨著系統(tǒng)的發(fā)展,人工智能技術將出現(xiàn)在更多的物聯(lián)網(wǎng)應用中,如傳感、智能手機、網(wǎng)絡搜索、人臉或車輛車牌識別、智能電表、工業(yè)控制和自動駕駛。
在自動駕駛領域,4級測試(被認為是全自動駕駛,盡管人類駕駛員仍然可以請求控制)已經(jīng)在美國進行。隨著5級(真正的自動駕駛,汽車完成所有駕駛,沒有駕駛艙)自動駕駛即將到來,我們不僅將依靠交通法律法規(guī),還將依靠AI算法的開發(fā)人員來確保車輛和行人的安全。
根據(jù)國際數(shù)據(jù)公司(IDC)的統(tǒng)計數(shù)據(jù),到2024年,全球人工智能服務預計將上升至18.4%,市值約為378億美元。這包括定制應用程序以及針對定制平臺的相關支持和服務,例如深度學習架構、卷積神經(jīng)網(wǎng)絡(一類人工神經(jīng)網(wǎng)絡,最常用于分析視覺圖像)和人工智能相關芯片(CPU、GPU、FPGA、TPU、ASIC)等。
IDC還預測,全球數(shù)據(jù)存儲將從2018年的33ZB飆升至2025年的175ZB,其中50%以上將來自物聯(lián)網(wǎng)設備。
考慮到到2025年,全球?qū)⒉渴鸺s140億臺物聯(lián)網(wǎng)設備,因此我們大幅增加云中的計算單元數(shù)量和計算能力以應對海量數(shù)據(jù)增長,這難道不是最重要的嗎?
好吧,簡短的答案是否定的。它沒有考慮從端點到云的數(shù)據(jù)傳輸鏈中的帶寬和延遲等真正挑戰(zhàn),這就是為什么“邊緣計算”如此迅速地出現(xiàn)的原因。
沒有必要增加帶寬和服務器數(shù)量來應對物聯(lián)網(wǎng)設備的快速增長。最好將應用程序移動到端點設備,這樣就無需將所有數(shù)據(jù)發(fā)送到云進行處理、傳輸、存儲和分析。例如,在工業(yè)自動化應用中,數(shù)據(jù)存儲距離會影響效率 - 5G移動設備制造商如果不加強端點人工智能并改革計算存儲架構,可能會遇到嚴重的電池壽命困難。
安全性是另一個重要問題,尤其是在萬物互聯(lián)(IoE)時代,機密信息,數(shù)據(jù)泄漏或黑客攻擊事件很常見。在邊緣進行計算可以最大限度地減少數(shù)據(jù)在“云 -管道-端點”路徑中傳輸?shù)拇螖?shù),在這種情況下,功耗和總系統(tǒng)擁有成本降低,同時確保數(shù)據(jù)和網(wǎng)絡安全。
比較人工智能芯片
AI技術分為兩類;訓練和推理。訓練由 CPU、GPU 和 TPU 在云中執(zhí)行,以不斷增加用于構建數(shù)據(jù)模型的數(shù)據(jù)庫資源。推理依賴于訓練的數(shù)據(jù)模型,更適合于完成邊緣設備和特定應用。它通常由專用集成電路和FPGA芯片處理。
人工智能相關芯片包括中央處理器、顯卡、現(xiàn)場可編程門陣列、熱塑性聚氨酯和集成電路。為了了解這些芯片之間的比較情況,以下是5個關鍵因素的比較重點。這些是:
計算機科學
靈活性
兼容性
權力
成本。
-中央處理器
CPU具有強大的計算能力和首屈一指的軟件和硬件兼容性。但由于馮·諾依曼架構的限制,數(shù)據(jù)需要在內(nèi)存和處理器之間來回傳輸。這限制了平均處理速度,并且與其他解決方案相比,在功耗和成本方面推動了自身發(fā)展的能力。
- 顯卡
例如,由于采用了計算統(tǒng)一設備架構,Nvidia的GPU可以主觀地讀取內(nèi)存位置,并通過共享虛擬內(nèi)存來提高計算能力。平均計算能力超過CPU數(shù)百甚至數(shù)千倍。
GPU已經(jīng)開發(fā)具有良好的軟硬件兼容性,但在功耗和成本效益方面需要改進。對硬件的投資,如額外的冷卻系統(tǒng),對于減少任何熱量問題也是必不可少的。
- 亞瑟士
ASIC芯片專為特定應用而設計。它們的計算能力、整體功耗和成本效益都可以在驗證和調(diào)整后得到優(yōu)化。
- 現(xiàn)場可編程門陣列
FPGA的軟硬件兼容性值得稱道,即使整體計算能力、成本效益和功耗都不是最好的。對于開發(fā)人員來說,從FPGA開始AI芯片開發(fā)仍然是一個好主意。
突破馮·諾依曼架構的界限
馮·諾依曼架構被傳統(tǒng)計算設備廣泛采用,它不分離計算和存儲,而是更注重計算。處理器和內(nèi)存之間的無休止數(shù)據(jù)傳輸消耗了大約80%的時間和功率。學者們已經(jīng)提出了許多不同的方法來解決這個問題 - 通過光互連和2.5D / 3D堆疊實現(xiàn)高帶寬數(shù)據(jù)通信。通過增加緩存層和近數(shù)據(jù)存儲(如高密度片上存儲)的數(shù)量來降低內(nèi)存訪問延遲和功耗。
但是,在人腦中,計算和存儲之間有什么區(qū)別嗎?我們是否使用左半球進行計算,使用正確的半球進行存儲?顯然不是。人腦的計算和存儲發(fā)生在同一個地方,不需要數(shù)據(jù)遷移。
然后,學術界和業(yè)界都渴望找到一種類似于人腦結構的新架構,并且能夠?qū)⒂嬎愫痛鎯τ袡C地結合起來,這并不奇怪。解決方案是“計算存儲設備”,它直接使用存儲單元進行計算,或者對計算單元進行分類,以便它們對應于不同的存儲單元 - 最大限度地降低數(shù)據(jù)遷移引起的功耗。
存儲行業(yè)的一些制造商已經(jīng)探索了不同的選擇。例如,非易失性存儲器(NVM)存儲數(shù)模轉換器產(chǎn)生的模擬信號并輸出計算能力。同時,輸入電壓和輸出電流在NVM中起可變電阻的作用,模擬電流信號通過模數(shù)轉換器轉換為數(shù)字信號。這樣就完成了從數(shù)字信號輸入到數(shù)字信號輸出的轉換過程。這種方法的最大優(yōu)點是可以充分利用成熟的20/28nm CMOS工藝,而不是像CPU/GPU那樣追求昂貴的7nm/5nm先進工藝。
隨著成本和功耗的降低,延遲得到了顯著改善,這對于無人機,智能機器人,自動駕駛和安全監(jiān)控等應用至關重要。
通常,端點推理過程的計算復雜度較低,所涉及的任務相對固定。由于硬件加速功能的通用性要求較低,因此無需頻繁更改體系結構。這更適合于內(nèi)存計算的實現(xiàn)。相關統(tǒng)計數(shù)據(jù)顯示,2017年之前,人工智能無論是訓練還是參考,都是在云端完成的;但到2023年,邊緣設備/芯片上的AI參考將占市場的一半以上,總計200-300億美元。對于IC制造商來說,這是一個巨大的市場。
人工智能需要什么樣的閃存?
每個人都會同意高質(zhì)量、高可靠性和低延遲的閃存對于AI芯片和應用的重要性。為不同的應用找到性能、功耗、安全性、可靠性和高效率的適當平衡至關重要。成本雖然重要,但不應該是最重要的考慮因素。
審核編輯:郭婷
-
智能手機
+關注
關注
66文章
18434瀏覽量
179872 -
物聯(lián)網(wǎng)
+關注
關注
2903文章
44284瀏覽量
371338 -
人工智能
+關注
關注
1791文章
46872瀏覽量
237605
發(fā)布評論請先 登錄
相關推薦
評論