阿里巴巴集團旗下的通義千問團隊宣布,全新的Qwen2大模型正式發(fā)布,并在全球知名的開源平臺Hugging Face和ModelScope上同步開源。這一里程碑式的事件標志著中國在人工智能領域的又一次重要突破。
Qwen2系列大模型共包含5個不同尺寸的預訓練和指令微調(diào)模型,分別是Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B,這些模型不僅在中英文處理上表現(xiàn)出色,更在性能上超越了美國當前最強的開源模型Llama3-70B,展示了中國人工智能技術的卓越實力。
值得一提的是,Qwen2大模型在訓練數(shù)據(jù)中增加了與27種語言相關的數(shù)據(jù),這一舉措極大地提升了模型的多語言能力。如今,Qwen2不僅在中英文處理上占據(jù)優(yōu)勢,更能在全球范圍內(nèi)為不同語言背景的用戶提供高效、準確的智能服務。
此外,Qwen2大模型在上下文長度支持上也實現(xiàn)了新的突破,最高可支持達128K tokens的文本處理,這在很大程度上滿足了用戶對長文本處理的需求,為各類應用場景提供了更加靈活、便捷的智能解決方案。
此次Qwen2大模型的發(fā)布,不僅展示了阿里巴巴在人工智能領域的創(chuàng)新能力和技術實力,更為全球人工智能領域的發(fā)展注入了新的活力。我們期待Qwen2大模型在未來能夠發(fā)揮更大的作用,為人類社會的進步和發(fā)展做出更大的貢獻。
-
人工智能
+關注
關注
1791文章
46845瀏覽量
237535 -
開源
+關注
關注
3文章
3245瀏覽量
42396 -
通義千問
+關注
關注
1文章
24瀏覽量
231
發(fā)布評論請先 登錄
相關推薦
評論