IBM 提供 Mixtral-8x7B 的優化版本,該版本可將延遲時間最多縮短 75%
IBM、第三方和開源模型的目錄不斷增加,為客戶提供更多選擇和靈活性
是 watsonx 人工智能與數據平臺上最新的開源模型,watsonx 提供企業就緒的人工智能開發平臺、數據存儲和治理功能
IBM(紐約證券交易所代碼:IBM)近日宣布,由 Mistral AI 公司開發的廣受歡迎的開源 Mixtral-8x7B 大型語言模型(LLM)已經可在其watsonx 人工智能與數據平臺上使用。
IBM 提供了 Mixtral-8x7B 的優化版本,在內部測試中,與常規模型相比,該版本能夠將吞吐量(即在給定時間段內可處理的數據量)提高 50% 。這可能可以將時間延遲減少 35-75%,從而加快獲得洞察的時間,具體取決于批處理量的大小。這是通過一個稱為量化的過程來實現的,該過程減少了 LLM 的模型大小和內存需求,進而可以加快處理速度,有助于降低成本和能耗。
Mixtral-8x7B 的加入擴展了 IBM 的開放、多模型戰略,隨時隨地滿足客戶的需求,并為他們提供選擇和靈活性,使其可以跨業務來擴展其企業級人工智能解決方案。通過數十年的人工智能研發、與 Meta 和 Hugging Face 開放式協作,以及與模型領導者的合作伙伴關系,IBM 正在擴展其 watsonx.ai 模型目錄,并引入新的功能、語言和模式。
IBM 的企業就緒基礎模型選擇及其 watsonx 人工智能和數據平臺可幫助客戶利用生成式人工智能獲得新的洞察力和效率,并基于信任原則創建新的業務模式。IBM 可幫助客戶根據所針對的業務領域(如金融)的合適用例及性價比目標來選擇合適的模型。
Mixtral-8x7B 結合了稀疏建模與專家混合技術來構建,“稀疏建模”是只查找和使用數據中最重要部分以創建更高效的模型的創新技術;而“專家混合技術”是把擅長并解決不同部分問題的不同模型(“專家”)結合在一起的技術。Mixtral-8x7B 模型因其能夠快速處理和分析海量數據以提供與上下文相關的見解而廣為人知。
IBM 軟件公司產品管理與增長高級副總裁 Kareem Yusuf 博士表示:"客戶要求在部署最適合其獨特用例和業務要求的模型時擁有選擇權和靈活性。通過在 watsonx 上提供 Mixtral-8x7B 和其它模型,我們不僅為客戶提供了部署人工智能的可選性,還為人工智能構建者和業務領導者提供了一個強大的生態系統,使他們能夠利用工具和技術推動不同行業和領域的創新。"
在同一周,IBM 還宣布在 watsonx 上提供由 ELYZA 公司開源的日本 LLM 模型 ELYZA-japanese-Llama-2-7b。IBM 還在 watsonx 上提供 Meta 的開源模型 Llama-2-13B-chat 和 Llama-2-70B-chat 以及其它第三方模型,未來幾個月還將推出更多模型。
有關 IBM 未來方向和意圖的聲明如有更改或撤回,恕不另行通知,僅代表目標和目的。
關于 IBM
IBM 是全球領先的混合云、人工智能及企業服務提供商,幫助超過 175 個國家和地區的客戶,從其擁有的數據中獲取商業洞察,簡化業務流程,降低成本,并獲得行業競爭優勢。金融服務、電信和醫療健康等關鍵基礎設施領域的超過 4000 家政府和企業實體依靠 IBM 混合云平臺和紅帽 OpenShift 快速、高效、安全地實現數字化轉型。IBM 在人工智能、量子計算、行業云解決方案和企業服務方面的突破性創新為我們的客戶提供了開放和靈活的選擇。對企業誠信、透明治理、社會責任、包容文化和服務精神的長期承諾是 IBM 業務發展的基石。
-
IBM
+關注
關注
3文章
1749瀏覽量
74631 -
AI大模型
+關注
關注
0文章
307瀏覽量
294
原文標題:IBM 宣布在 watsonx 上提供開源的 Mistral AI 模型
文章出處:【微信號:IBMGCG,微信公眾號:IBM中國】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論