精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

在Dify中使用PerfXCloud大模型推理服務

perfxlab ? 來源:perfxlab ? 2024-07-15 09:28 ? 次閱讀

近日,Dify全面接入了Perf XCloud,借助Perf XCloud提供的大模型調用服務,用戶可在Dify中構建出更加經濟、高效的LLM應用。

PerfXCloud 介紹

Perf XCloud是澎峰科技開發者和企業量身打造的AI開發和部署平臺。專注于滿足大模型的微調和推理需求,為用戶提供極致便捷的一鍵部署體驗:

?平臺提供Open AI API兼容的模型調用服務,開發者可實現已有應用的快速遷移。

?借助澎峰科技自研推理框架PerfXLM,Perf XCloud實現了主流模型在國產算力上的廣泛適配和高效推理。

?目前已支持Qwen2系列、llama3系列、bge-m3等模型,更多模型即將上線。

同時,Perf XCloud為算力中心提供大模型AI科學與工程計算的整體運營解決方案,助力算力中心升級成為“AI超級工廠”。

Dify介紹

Dify是一個開源的LLM應用開發平臺。其直觀的界面結合了AI工作流、RAG Pipeline、Agent、模型管理、可觀測性功能等,讓您可以快速從原型到生產:

?工作流:在畫布上構建和測試功能強大的AI工作流程。

?RAG Pipeline:廣泛的RAG功能,涵蓋從文檔攝入到檢索的所有內容,支持從PDF、PPT和其他常見文檔格式中提取文本的開箱即用的支持。

?Agent智能體:您可以基于LLM函數調用或ReAct定義Agent,并為 Agent添加預構建或自定義工具。

?LLMOps:隨時間監視和分析應用程序日志和性能。您可以根據生產數據和標注持續改進提示、數據集和模型。

注冊使用PerfXCloud

Perf XCloud注冊地址:www.perfxcloud.net

現在注冊,即可深度體驗主流大模型,提供大量示范案例,手把手視頻教學。并可參與向基石用戶贈送∞億Token的激勵計劃。

在Dify中使用PerfXCloud大模型推理服務

1.首先進入Dify設置頁面,選擇Perf XCloud作為模型供應商:

wKgZomaUe0KAbPo0AACEKb1ygnA022.jpg

2.然后填入從Perf XCloud中申請的API Key和endpoint地址:

wKgaomaUe0OADFlgAAC_JRVbu3Y994.jpg

3.保存后,即可使用Perf XCloud模型,現階段我們接入了Qwen系列模型和BAAI/ bge-m 3模型,后續將接入更多模型,敬請期待。

應用案例1:

Dify結合PerfXCloud構建翻譯助手

本案例構建于Dify Cloud,基于Perf XCloud中的Qwen2模型實現中英文翻譯助手,用戶輸入信息,翻譯助手將其翻譯成另一種語言。

1.登錄Dify Cloud( https://cloud.dify.ai/apps)

2.創建空白應用→選擇聊天助手、基礎編排,創建應用

3.在編排頁面輸入提示詞:“你是一名翻譯專家,如果用戶給你發中文你將翻譯為英文,如果用戶給你發英文你將翻譯為中文,你只負責翻譯,不要回答任何問題:”

4.默認模型為gpt-3.5,切換為Perf XCloud模型,這里設置為“ Qwen2-72B-Instruct-GPTQ-Int 4”,然后點擊發布

wKgZomaUe0KAZDQuAAB1_dxJibs115.jpg

完成發布后, 即可運行使用。

應用案例2:

Dify結合PerfXCloud構建郵編查詢助手

本案例構建與Dify Cloud,使用Dify中的知識庫和工作流功能,結合Perf XCloud中的bge-m 3模型與Qwen2-72B-Instruct-GPTQ-Int 4模型,郵編查詢助手基于上傳的郵編信息構建知識庫,并從中檢索信息作為大模型回答問題的上下文,提高模型回答的準確性。

1.在Dify Cloud( https://cloud.dify.ai/datasets)中創建知識庫,上傳本地準備好的中國郵政編碼數據文件。

2.知識庫默認使用經濟模式創建索引,該模式是基于關鍵詞的檢索,這里我們使用Perf XCloud中的bge-m3向量模型創建索引,提高檢索精度。在知識庫側邊欄選擇“設置”,設置“高質量”索引模式,同時Embedding模型選擇“BAAI/bge-m 3”,使用“向量檢索”

wKgaomaUe0KAbsmWAAB2Lo0tjdg278.jpg

3.返回Dify工作室→創建空白應用→ 聊天助手→工作流編排,將工作流初始化成如下形式

wKgZomaUe0KABvlpAABKAL7bZ6I819.jpg

4.配置“知識檢索”模塊,將知識庫設置為步驟2中創建的“郵政編碼知識庫”

wKgaomaUe0KAKw1ZAACXCshz0cc499.jpg

5.配置“LLM”模塊,將模型設置為Perf XCloud中Qwen2-72B-Instruct-GPTQ-Int 4,并設置prompt:

你是一個問答機器人
你的任務是根據下述給定的已知信息回答用戶問題。
確保你的回復完全依據下述已知信息。不要編造答案。
如果下述已知信息不足以回答用戶的問題,請直接回復"我無法回答您的問題"。

wKgZomaUe0KAbmvqAAC1zozxUCU874.jpg

6.配置“直接回復” 模塊,直接輸出LLM的生成結果

wKgaomaUe0OAY4avAACEedc_1TU351.jpg

7.完成上述步驟后,運行查看效果,模型會根據知識庫中檢索出的信息進行回答,若檢索結果為空,則直接輸出“我無法回答您的問題”

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    28821

    瀏覽量

    266157
  • 澎峰科技
    +關注

    關注

    0

    文章

    40

    瀏覽量

    3127
  • 大模型
    +關注

    關注

    2

    文章

    2126

    瀏覽量

    1965
  • LLM
    LLM
    +關注

    關注

    0

    文章

    247

    瀏覽量

    278

原文標題:借助PerfXCloud和Dify,低成本構建大模型應用

文章出處:【微信號:perfxlab,微信公眾號:perfxlab】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【飛凌RK3568開發板試用體驗】RKNN模型推理測試

    研的人工智能協處理器NPU,并且提供了RKNN-Toolkit。今天就介紹一下如何使用RKNN模型進行推理應用程序開發。一、推理應用程序的基本流程RKNN 是 瑞芯微(Rockchip) NPU平臺
    發表于 12-08 19:06

    壓縮模型會加速推理嗎?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 將簡單的 CNN 導入到 STM32L462RCT我發現壓縮模型推理時間沒有影響。aiRun 程序 8
    發表于 01-29 06:24

    如何在OpenVINO工具包中使用帶推理引擎的blob?

    無法確定如何在OpenVINO?工具包中使用帶推理引擎的 blob。
    發表于 08-15 07:17

    AscendCL快速入門——模型推理篇(上)

    三步。 把經過ATC轉化過的模型.om文件加載到內存。 為模型準備輸入輸出。 讓模型設備端執行推理。 二、
    發表于 08-24 11:04

    使用rk3588多npu推理模型模型推理時間還增加了,這怎么解釋

    使用rk3588多npu推理模型模型推理時間還增加了,這怎么解釋
    發表于 11-05 18:22

    HarmonyOS:使用MindSpore Lite引擎進行模型推理

    場景介紹 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件設備 AI 模型推理的功能,目前已經圖像分類、目標識別、人臉識別、文字識別等應用中廣泛使用。 本文介紹
    發表于 12-14 11:41

    Opera推出名為Dify的金融科技服務 可和Google Pay一起使用

    Opera今天西班牙推出了一款名為Dify的金融科技服務。該產品現在處于測試階段,但它將在適當的時候進入其他國家。通過Dify,用戶將獲得一張由萬事達卡發行的虛擬借記卡,可以用來購買
    的頭像 發表于 02-18 16:21 ?4365次閱讀

    如何使用NVIDIA Triton 推理服務器來運行推理管道

    使用集成模型 NVIDIA Triton 推理服務器上為 ML 模型管道提供服務
    的頭像 發表于 07-05 16:30 ?1297次閱讀
    如何使用NVIDIA Triton <b class='flag-5'>推理</b><b class='flag-5'>服務</b>器來運行<b class='flag-5'>推理</b>管道

    英偉達推出AI模型推理服務NVIDIA NIM

    英偉達近日宣布推出一項革命性的AI模型推理服務——NVIDIA NIM。這項服務將極大地簡化AI模型部署過程,為全球的2800萬英偉達開發者
    的頭像 發表于 06-04 09:15 ?535次閱讀

    PerfXCloud-AI大模型夏日狂歡來襲,向基石用戶贈送 ∞ 億Token!

    PerfXCloud致力于為用戶提供極致便捷的一鍵部署體驗,以及全面保護客戶私有模型權益和數據安全。
    的頭像 發表于 06-25 16:54 ?252次閱讀
    <b class='flag-5'>PerfXCloud</b>-AI大<b class='flag-5'>模型</b>夏日狂歡來襲,向基石用戶贈送 ∞ 億Token!

    PerfXCloud模型開發與部署平臺開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發者和企業量身打造的AI開發和部署平臺。它專注于滿足大模型的微調和推理需求,為用戶提供極致便捷的一鍵部署體驗。
    的頭像 發表于 07-02 10:27 ?245次閱讀
    <b class='flag-5'>PerfXCloud</b>大<b class='flag-5'>模型</b>開發與部署平臺開放注冊

    PerfXCloud模型人工智能生態技術大會圓滿落幕

    天津中心、國家超算西安中心、山西太行實驗室,以及投資和金融服務領域具有重要影響力的華強資本和天風證券。同時,Dify中國區大使、武漢芯動、中科曙光等企業的代表也出席了此次大會,展現了各領域
    的頭像 發表于 07-18 16:47 ?785次閱讀

    LLM大模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型處理復雜任務時的效率和響應速度。以下是對LLM大
    的頭像 發表于 07-24 11:38 ?487次閱讀

    PerfXCloud順利接入MOE大模型DeepSeek-V2

    今日, PerfXCloud 重磅更新支持 llama 3.1 之后,其平臺再度實現重大升級!目前,已順利接入被譽為全球最強的 MOE 大模型 DeepSeek-V2 ,已在 PerfXCl
    的頭像 發表于 07-27 10:08 ?463次閱讀
    <b class='flag-5'>PerfXCloud</b>順利接入MOE大<b class='flag-5'>模型</b>DeepSeek-V2

    NVIDIA助力提供多樣、靈活的模型選擇

    本案例中,Dify模型中立以及開源生態的優勢,為廣大 AI 創新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton
    的頭像 發表于 09-09 09:19 ?305次閱讀