微軟和谷歌正在通過搜索引擎將人工智能帶給人們,從而推動了一場重大的計算變革,而衡量成功的標準之一可能取決于支持應用程序的硬件和數據中心基礎設施。
上周,微軟和谷歌宣布推出下一代人工智能搜索引擎,可以推理和預測,并為用戶問題提供更全面的答案。搜索引擎將能夠為復雜的查詢生成完整的答案,就像 ChatGPT 提供詳細答案或撰寫論文的方式一樣。
微軟正在將 AI 置于 Bing 中以響應文本查詢,Google 也計劃將 AI 置于其文本、圖像和視頻搜索工具中。這些公告是在上周連續幾天發布的。
兩家公司承認,如果沒有強大的硬件基礎設施,人工智能就不可能進入搜索引擎。兩家公司沒有分享驅動人工智能計算的實際硬件的細節。
多年來,微軟和谷歌一直在培育專為黃金時段公告設計的人工智能硬件,例如上周的人工智能搜索引擎。
這些公司擁有截然不同的人工智能計算基礎設施,響應速度和結果準確性將成為對搜索引擎生存能力的嚴峻考驗。
谷歌的Bard在其云服務中由其 TPU(張量處理單元)芯片提供支持,熟悉該公司計劃的消息人士證實了這一點。微軟表示,其在 Azure 中的人工智能超級計算機——可能在 GPU 上運行——可以以毫秒級或搜索延遲的速度提供結果。
谷歌的 TPU 與 AI 市場領導者 Nvidia 之間的 AI 計算展開了一場非常公開的戰斗,Nvidia 的 GPU 在市場上占據主導地位。
“團隊致力于在全球范圍內為機器和數據中心提供動力和建設。我們仔細地編排和配置了一組復雜的分布式資源。我們構建了新的平臺部件,旨在以前所未有的方式幫助負載平衡、優化性能和擴展,”微軟 Bing 產品負責人 Dena Saunders 在發布會上說。
微軟正在使用更高級版本的 OpenAI 的 ChatGPT。在微軟的活動中,OpenAI 首席執行官Sam Altman估計每天有 100 億次搜索查詢。
微軟通過實現讓Bing擁有AI能力的道路確保其AI 超級計算機具有計算能力,該公司聲稱它是世界上最快的五臺超級計算機之一,但該計算機未列入 Top500 排名。
“我們參考了 AI 超級計算機,但這項工作花費了數年時間,并且需要大量投資來構建我們可以在堆棧的每一層中引入的規模類型、速度類型和成本類型。微軟執行副總裁兼首席財務官Amy Hood上周在與投資者的電話會議上表示,我認為……我們的運營規模非常不同。
Hood 說,隨著使用規模和優化的實施,超級計算機層的 AI 計算成本將隨著時間的推移而繼續下降。
“當然,每次搜索交易的成本往往會隨著規模的擴大而下降,我認為我們從一個非常強大的平臺開始,以便能夠做到這一點,”Hood 說。
隨著更多 GPU 的實施,計算成本通常會上升,冷卻成本和其他支持基礎設施也會增加賬單。但公司通常將收入與計算成本掛鉤。
微軟的 AI 超級計算機是與 OpenAI 合作建造的,它擁有 285,000 個 CPU 內核和 10,000 個 GPU。Nvidia 在 11 月簽署了一項協議,將其數萬個 A100 和 H100 GPU 放入 Azure 基礎設施中。
根據Statcounter的數據,微軟的 Bing 搜索份額并不接近谷歌搜索,谷歌搜索在 1 月份擁有 93% 的市場份額。
人工智能從根本上說是一種基于推理和預測能力的不同計算方式,而傳統計算則圍繞邏輯計算展開。AI 是在可以執行矩陣乘法的硬件上完成的,而傳統計算圍繞著 CPU 展開,CPU 擅長數據的串行處理。
谷歌正在采取謹慎的態度,并將其 Bard 對話式 AI 作為其 LaMDA 大型語言模型的輕量級現代版本發布。谷歌的 LaMDA 是與 OpenAI 的 GPT-3 競爭的本土版本,后者是 ChatGPT 對話式人工智能的基礎。
Technalysis Research 首席分析師 Bob O'Donnell 表示,處理 AI 搜索的基礎設施建設仍在進行中,微軟和谷歌需要解決很多問題。
微軟意識到人工智能計算正在迅速發展,并且愿意測試和使用新的人工智能硬件,O'Donnell 說,他在上周的 Bing AI 發布會上與微軟的基礎設施團隊進行了交談。
“他們還明確表示,‘我們正在嘗試一切,因為它一直在變化。甚至我們現在正在做的事情也會隨著時間的推移而改變——未來會有不同,'”O'Donnell 說。
O'Donnell 說,對于 Microsoft 而言,擁有一個更靈活的計算平臺“比在一項給定任務上一定要快 5%”更為重要。
“他們承認,‘看,我們將在接下來的 30 天內學到很多東西,因為人們開始使用它,我們開始看到負載的真實情況。’ 這是一種動態的、動態的東西,”O'Donnell 說。
例如,Microsoft 可能會了解人們使用搜索請求訪問服務器的高峰時間。O'Donnell 說,在低使用率期間,微軟可以從輸出結果的推理部分切換到需要更多 GPU 計算的訓練部分。
谷歌于 2016 年推出的TPU一直是該公司人工智能戰略的關鍵組成部分。眾所周知,TPU 為 AlphaGo 提供了動力,該系統在 2016 年擊敗了圍棋冠軍李世石。該公司的 LaMDA LLM 是為在 TPU 上運行而開發的。谷歌的姊妹組織 DeepMind 也在使用 TPU 進行人工智能研究。
SemiAnalysis 創始人 Dylan Patel在一份簡報中表示,谷歌的芯片“使用內部 TPUv4 pod 與 Microsoft/OpenAI 使用基于 Nvidia 的 HGX A100s 相比,在基礎設施方面具有顯著優勢” 。
隨著時間的推移,隨著硬件規模和模型針對硬件的優化,成本將會降低,Patel寫道。
Facebook 現在正在建設具有更多 AI 計算能力的數據中心。Facebook 集群將擁有數千個加速器,其中包括 GPU,并將在 8 至 64 兆瓦的功率范圍內運行。人工智能技術被用來刪除令人反感的內容,計算集群將驅動公司的元宇宙未來。該公司還在建造一臺配備 16,000 個 GPU 的 AI 研究超級計算機。
Mercury Research 首席分析師迪恩·麥卡倫 (Dean McCarron) 表示,一般來說,現在正在為目標工作負載構建數據中心,這些工作負載越來越多地圍繞人工智能應用,并且具有更多 GPU 和 CPU 內容。
云提供商經過漫長的評估周期來挑選最好的 CPU、GPU 和其他組件。總擁有成本是另一個考慮因素。
“這里的另一個問題是它有多靈活?因為一些購買者可能不想對特定的工作負載投入或做出太大的承諾,因為他們不知道將來是否會出現這種情況,”McCarron 說。
優先支持 AI 工作負載的數據中心將更多地采用 Intel、Nvidia 和 AMD 的 GPU 和 CPU。有些人可能會為 AI 工作負載選擇備用加速器,但它們可以與 GPU 和 CPU 共存。
“你總是需要更快的 GPU。十年后,在數據中心,會有 CPU 嗎?是的。會有 GPU 嗎?是的,也是,”麥卡倫說。
編輯:黃飛
?
評論
查看更多