6 月 13 日,2023 開放原子全球開源峰會開源大模型分論壇圓滿舉行。本場論壇匯聚了中國大模型領域的專家,包括工業界和學術界的主流玩家,共同探討大模型的最新技術和應用,為業內人士提供時新的技術資訊、深入的技術解析和實用的應用指南。開放原子開源基金會 TOC、上海市人工智能行業協會、哈工大(深圳)計算機學院、清華大學、百度、阿里、華為、騰訊、深圳數據交易所、第四范式等單位嘉賓分享前沿觀點。
孫文龍在致辭中表示,隨著開源成為構建技術生態圈最有效的路徑之一,以開源開放的形式推動大模型發展,有利于匯聚全球智慧,建設一個有生命力,能夠持續迭代更新的技術生態,通過開源大模型體系各企業都可以共享數據,共擔算力,共建算法。當前,基金會也正在籌建大模型工作委員會,旨在依托基金會開源公益平臺,組織社會各界力量聚焦上下游伙伴,以開源開放合作方式,提供數據算力和算法的公益服務,加速大模型的行業應用落地,推動大模型開源生態的發展。
譚中意從宏觀視角介紹了開源大模型的重要性。他認為大模型濃縮了全世界的知識,將徹底改變知識的產生、傳播和發展。大模型需要通過開源協作的方式持續推動生態健康、持續進化。目標是打造下一代數字經濟核心基礎設施,其關鍵是合規地使用開源數據集和開源訓練程序,并通過國產算力訓練生成開源通用大模型。建議從開源數據集、開源的數據集合規清洗程序,以及提供模型和數據存儲和分發功能的平臺做起。目前基金會 TOC 已經成立開源大模型 SIG(Special Interest Group,類似工作組),基金會也開始籌建大模型工委會,歡迎各界同仁參與。
徐琦闡釋了大模型的機遇和挑戰。他認為大模型的分布式訓練考驗的是算法、數據、框架、資源調度等全棧和全流程的綜合能力,呼吁國內大模型要做中國特色的開源,百花齊放、百舸爭流。
聶禮強介紹了多模態大模型的發展歷程、研究現狀、并展示了自主研發的多模態對話系統——九天。
東昱曉介紹了從千億模型 GLM-130B 到 ChatGLM 的開源嘗試,并展示了對模型的訓練情況以及在技術迭代上所做的努力。
張軍介紹了產業級深度學習開源開放平臺飛槳的大模型訓練能力,并介紹了百度對深度學習分布式訓練技術突破的開創性貢獻。
林俊旸介紹了阿里大模型通義千問的模型能力,其中包括自然語言和多模態的理解和生成能力,并介紹了相關開源工作。此外,他還談到了通義千問和魔搭社區的結合,未來基礎大語言模型和外部各類開源模型的結合將會打造出更加通用的 AI 系統。
金小賢分享了 MindSpore 近幾年在 AI 超大模型相關的實踐。他從當前大模型的發展和面臨的挑戰入手,重點介紹了 MindSpore 的技術實踐和在大模型中的實踐。
李寶嘉介紹了騰訊自研的星脈高性能算力網絡利用自研交換機構建了超大規模網絡架構,實現了 90%的網絡負載以及 2K 規模集群下 16%的有效算力提升。并分享了全棧運營系統如何有效減少網絡原因所導致的業務訓練中斷問題,以保證 GPU 集群的高可靠性和高可用性。
王騰認為我國數據要素市場處于培育期,發展迅速,但數據孤島現象仍然存在。開源生態鼓勵數據共享和開放性,鼓勵用戶和開發者之間的合作與創新。在大模型領域,深圳數據交易所愿意成為開源大模型訓練數據集供給的交通樞紐,同時借助深圳數據交易所數據交易合規師 DEXCO 社群解決開源大模型訓練數據集合規處理問題。此外,他還介紹了開放群島開源社區的發展情況及開放群島隱私計算 FATE 框架,旨在保護數據隱私。
來自第四范式的資深系統架構師盧冕介紹大模型訓練和服務背后的底層國產算力要求,還包括如 GPU 虛擬化方案、異構計算技術等等。
本場論壇充分探討大語言模型的最新技術和應用,帶領觀眾們領略國內各大名企大模型的實踐情況并解析大模型下的國產算力調度,打造了一場干貨滿滿的“技術盛宴”,為開源大模型的未來指出了更為明晰的方向。
審核編輯黃宇
-
開源
+關注
關注
3文章
3254瀏覽量
42408 -
大模型
+關注
關注
2文章
2335瀏覽量
2491
發布評論請先 登錄
相關推薦
評論