精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

產(chǎn)品應(yīng)用 | 小盒子跑大模型!英碼科技基于算能BM1684X平臺實(shí)現(xiàn)大模型私有化部署

英碼科技 ? 來源:英碼科技 ? 作者:英碼科技 ? 2024-06-14 16:29 ? 次閱讀

當(dāng)前,在人工智能領(lǐng)域,大模型在豐富人工智能應(yīng)用場景中扮演著重要的角色,經(jīng)過不斷的探索,大模型進(jìn)入到落地的階段。而大模型在落地過程中面臨兩大關(guān)鍵難題:對龐大計(jì)算資源的需求和對數(shù)據(jù)隱私與安全的考量。為應(yīng)對這些挑戰(zhàn),在邊緣側(cè)私有化部署大模型成為了一個(gè)有效的解決方案。

將大模型部署到邊緣側(cè),不僅能夠減少延遲和帶寬消耗,使得大模型能夠在邊緣節(jié)點(diǎn)快速進(jìn)行推理和應(yīng)用;還能增強(qiáng)數(shù)據(jù)隱私保護(hù),這對于維護(hù)企業(yè)的數(shù)據(jù)安全至關(guān)重要。

為響應(yīng)市場需求,英碼科技推出了基于算能BM1684X平臺的大模型私有化部署產(chǎn)品方案,包括:邊緣計(jì)算盒子IVP03X-V2、云邊加速卡AIV02X和AIV03X,助力企業(yè)實(shí)現(xiàn)垂直大模型應(yīng)用落地!

wKgaomZr_fqAdrBeAAbmBEryjaQ258.png

▎邊緣計(jì)算盒子IVP03X-V2

IVP03X-V2是英碼科技基于BM1684X推出的高性能邊緣計(jì)算盒子,INT8算力高達(dá)32Tops,配置了16GB大內(nèi)存,支持適配Llama2-7B/ChatGLM3-6B/Qwen-7B和SAM/StableDiffusion等大模型,是業(yè)內(nèi)少數(shù)能同時(shí)兼容國內(nèi)外深度學(xué)習(xí)框架,并且能夠流暢運(yùn)行大語言模型推理的邊緣計(jì)算設(shè)備之一。

▎大模型推理加速卡AIV02X & AIV03X

AIV02X和AIV03X算力可達(dá)64 TOPS@INT8和72 TOPS@INT8,顯存配置32GB和48GB,支持多芯分布式推理及支持大語言/提示型/圖像生成模型等大模型推理;這兩款云邊大模型推理加速卡均可應(yīng)用于邊緣大語言、文生圖等通用大模型、垂直行業(yè)私有模型的推理應(yīng)用。

接下來,以英碼科技IVP03X邊緣計(jì)算盒子為例,為大家介紹實(shí)測大語言模型、文生圖大模型的部署流程和效果演示:

英碼科技IVP03X-V2實(shí)測大語言模型

一、前期準(zhǔn)備工作

demo下載地址:

https://github.com/sophgo/sophon-demo

二、大模型內(nèi)存配置

1、建一個(gè)存放工具的文件夾:

mkdir memedit && cd memedit


2、下載內(nèi)存配置工具:

wget -nd https://sophon-file.sophon.cn/sophon-prod-s3/drive/23/09/11/13/DeviceMemoryModificationKit.tgz tar xvf DeviceMemoryModificationKit.tgz cd DeviceMemoryModificationKit tar xvf memory_edit_{vx.x}.tar.xz #vx.x是版本號 cd memory_edit

3、重配內(nèi)存:

./memory_edit.sh -p #這個(gè)命令會打印當(dāng)前的內(nèi)存布局信息 ./memory_edit.sh -c -npu 7615 -vpu 3072 -vpp 3072 #npu也可以訪問vpu和vpp的內(nèi)存 替換emmbboot.itb: sudo cp /data/memedit/DeviceMemoryModificationKit/memory_edit/emmcboot.itb /boot/emmcboot.itb && sync

4、重啟生效:

reboot 重啟后,檢查配置: free -h cat /sys/kernel/debug/ion/bm_npu_heap_dump/summary | head -2 cat /sys/kernel/debug/ion/bm_vpu_heap_dump/summary | head -2 cat /sys/kernel/debug/ion/bm_vpp_heap_dump/summary | head -2

三、實(shí)測Chat-GLM3大模型(英文模式)

1、demo下載(Chat-GLM3)

進(jìn)到Chat-GLM2案例目錄下:sophon-demo-release/sample/Chat-GLM2/

安裝pip3,安裝dfss

sudo apt install python3-pip pip3 install dfss -i https://pypi.tuna.tsinghua.edu.cn/simple/ pip3 install dfss --upgrade

下載模型:

sudo apt install unzip chmod -R +x scripts/ ./scripts/download.sh

2、安裝依賴

安裝python依賴:

pip3 install -r python/requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/ Sail安裝包,下載安裝: python3 -m dfss --url=open@sophgo.com:sophon-demo/ChatGLM3/sail/soc/sophon_arm-3.7.0-py3-none-any.whl pip3 install sophon_arm-3.7.0-py3-none-any.whl

3、大模型運(yùn)行測試:

python3 python/chatglm3.py --bmodel models/BM1684X/chatglm3-6b_int4.bmodel --token python/token_config --dev_id 0 python3 python/chatglm3.py --bmodel models/BM1684X/chatglm3-6b_int8.bmodel --token python/token_config --dev_id 0 python3 python/chatglm3.py --bmodel models/BM1684X/chatglm3-6b_fp16.bmodel --token python/token_config --dev_id 0

9

四、實(shí)測Qwen大模型(中文模式)

1、demo下載(Qwen)

進(jìn)到Chat-GLM2案例目錄下:sophon-demo-release/sample/Qwen/

安裝pip3,安裝dfss

sudo apt install python3-pip pip3 install dfss -i https://pypi.tuna.tsinghua.edu.cn/simple/ pip3 install dfss --upgrade

下載模型:

sudo apt install unzip chmod -R +x scripts/ ./scripts/download.sh

2、安裝依賴

安裝python依賴:

pip3 install -r python/requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/ Sail安裝包,下載安裝: python3 -m dfss --url=open@sophgo.com:sophon-demo/ChatGLM3/sail/soc/sophon_arm-3.7.0-py3-none-any.whl pip3 install sophon_arm-3.7.0-py3-none-any.whl

3、大運(yùn)行測試:

python3 python/qwen.py --bmodel models/BM1684X/qwen-7b_int4_1dev.bmodel --token python/token_config --dev_id 0 python3 python/qwen.py --bmodel models/BM1684X/qwen-7b_int8_1dev.bmodel --token python/token_config --dev_id 0

英碼科技IVP03X-V2實(shí)測文生圖大模型

1、demo下載(StableDiffusionV1_5)

進(jìn)到Chat-GLM2案例目錄下:sophon-demo-release/sample/Qwen/

安裝pip3,安裝dfss

sudo apt install python3-pip pip3 install dfss -i https://pypi.tuna.tsinghua.edu.cn/simple/ pip3 install dfss --upgrade

下載模型:

sudo apt install unzip chmod -R +x scripts/ ./scripts/download_controlnets_bmodel.sh ./scripts/download_multilize_bmodel.sh ./scripts/download_singlize_bmodel.sh

2、安裝依賴

安裝python依賴:

pip3 install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/ 安裝sail包 python3 -m dfss --url=open@sophgo.com:sophon-demo/ChatGLM3/sail/soc/sophon_arm-3.7.0-py3-none-any.whl

3、大模型運(yùn)行測試:

①文本生成圖像

迭代20次

python3run.py--model_path../models/BM1684X--stagesinglize--prompt"Aparrotrestingonabranch"--neg_prompt"worstquality"--num_inference_steps20--dev_id0

迭代500次

python3 run.py --model_path ../models/BM1684X --stage singlize --pr ompt "A parrot resting on a branch" --neg_prompt "worst quality" --num_inference_steps 500 --dev_id 0

wKgZomZr_zWAOsD4AA-bPEXwDNo060.png

② Controlnet插件輔助控制 生成圖像

一只小兔子晚上在酒吧喝酒 :迭代次數(shù),20次

python3 run.py --model_path ../models/BM1684X --stage multilize --controlnet_name scribble_controlnet_fp16.bmodel --processor_name scribble_processor_fp16.bmodel --controlnet_img ../pics/generated_img.jpg --prompt "a rabbit drinking at the bar at night" --neg_prompt "worst quality" --num_inference_steps 100 --dev_id 0

一只小兔子晚上在酒吧喝酒 :迭代次數(shù),200次

python3 run.py --model_path ../models/BM1684X --stage multilize --controlnet_name scribble_controlnet_fp16.bmodel --processor_name scribble_processor_fp16.bmodel --controlnet_img ../pics/generated_img.jpg --prompt "a rabbit drinking at the bar at night" --neg_prompt "worst quality" --num_inference_steps 200 --dev_id 0

wKgaomZr_0iAARqMABC_rCt6XA0763.png

結(jié)語

隨著大模型技術(shù)的不斷落地和應(yīng)用,大模型涌現(xiàn)的強(qiáng)大能力不再局限于云端,模型的算法正逐漸向邊緣端延伸;未來,英碼科技將結(jié)合自身在軟硬件方面的技術(shù)優(yōu)勢和豐富的經(jīng)驗(yàn),以AI賦能更多企業(yè)低門檻、高效落地邊緣側(cè)大模型應(yīng)用,從而推動各行業(yè)智能化轉(zhuǎn)型的進(jìn)程。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30146

    瀏覽量

    268421
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    46859

    瀏覽量

    237579
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2328

    瀏覽量

    2485
收藏 人收藏

    評論

    相關(guān)推薦

    模型時(shí)代的力需求

    現(xiàn)在AI已進(jìn)入大模型時(shí)代,各企業(yè)都爭相部署模型,但如何保證大模型力,以及相關(guān)的穩(wěn)定性和性能,是一個(gè)極為重要的問題,帶著這個(gè)極為重要的問
    發(fā)表于 08-20 09:04

    智能水電表管理系統(tǒng)支持本地私有化部署嗎?

    智能水電表管理系統(tǒng),作為智慧城市建設(shè)中的關(guān)鍵組件,正逐步改變著能源計(jì)量與管理的傳統(tǒng)模式。面對日益增長的數(shù)據(jù)安全需求及特定行業(yè)的合規(guī)性考量,越來越多的企業(yè)和機(jī)構(gòu)開始關(guān)注系統(tǒng)的本地私有化部署方案。本文將
    的頭像 發(fā)表于 08-12 20:32 ?237次閱讀
    智能水電表管理系統(tǒng)支持本地<b class='flag-5'>私有化</b><b class='flag-5'>部署</b>嗎?

    AIBOX青春版上線!1399把AI帶回家

    BM1688,力高達(dá)16TOPS,支持主流大模型私有化部署,把AI的能力私有化,滿足個(gè)性
    的頭像 發(fā)表于 08-08 08:02 ?600次閱讀
    AIBOX青春版上線!1399把AI帶回家

    RADXA微服務(wù)器試用體驗(yàn)】+ GPT語音與視覺交互:2,圖像識別

    圖像識別也屬于是AI的一個(gè)非常基本的經(jīng)典應(yīng)用。在主打AI功能的BM1684X上自然也是得到了廣泛的支持。 官方提供了一個(gè)叫做Radxa-Model-Zoo的倉庫,這個(gè)倉庫里包含了許多AI方面
    發(fā)表于 07-14 23:36

    PerfXCloud大模型開發(fā)與部署平臺開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發(fā)者和企業(yè)量身打造的AI開發(fā)和部署平臺。它專注于滿足大模型的微調(diào)和推理需求,為用戶提供極致便捷的一鍵部署體驗(yàn)。 PerfX
    的頭像 發(fā)表于 07-02 10:27 ?353次閱讀
    PerfXCloud大<b class='flag-5'>模型</b>開發(fā)與<b class='flag-5'>部署</b><b class='flag-5'>平臺</b>開放注冊

    用yolov5的best.pt導(dǎo)出成onnx轉(zhuǎn)化成fp32 bmodel后在Airbox上,報(bào)維度不匹配怎么處理?

    bm1684x --test_input best_pt_in_f32.npz --test_reference best_pt_top_outputs.npz --model bestf32.bmodel模型是利用文件中的
    發(fā)表于 05-31 08:10

    bm1684運(yùn)行demo報(bào)錯怎么解決?

    ../models/BM1684X/yolov5s_v6.1_3output_fp32_1b.bmodel[BMRT][bmcpu_setup:406] INFO:cpu_lib \'libcpuop.so
    發(fā)表于 05-20 07:24

    搭載TPU處理器BM1688&amp;CV186AH的科技邊緣計(jì)算盒子,功耗更低、接口更豐富

    了基于BM1684的邊緣計(jì)算盒子IVP03A、IVP03C、IVP03D,以及基于BM1684X的IVP03X邊緣計(jì)算盒子,在智慧交通、智慧
    的頭像 發(fā)表于 05-18 08:39 ?266次閱讀
    搭載TPU處理器<b class='flag-5'>BM</b>1688&amp;CV186AH的<b class='flag-5'>英</b><b class='flag-5'>碼</b>科技邊緣計(jì)算<b class='flag-5'>盒子</b>,功耗更低、接口更豐富

    【AIBOX】裝在小盒子的AI足夠強(qiáng)嗎?

    Firefly推出大語言模型本地部署產(chǎn)品:AIBOX-1684X,目前已適配主流的大語言模型,包括ChatGLM3-6B,以下是ChatG
    的頭像 發(fā)表于 05-15 08:02 ?407次閱讀
    【AIBOX】裝在<b class='flag-5'>小盒子</b>的AI足夠強(qiáng)嗎?

    把大模型裝進(jìn)小盒子:這個(gè)小魔盒直擊端側(cè)AIGC的痛點(diǎn)!

    私有本地部署:智能硬件的未來隨著當(dāng)下數(shù)字的高速發(fā)展,今年將會迎來“大模型應(yīng)用爆發(fā)元年”。市面上不少大
    的頭像 發(fā)表于 05-10 08:33 ?324次閱讀
    把大<b class='flag-5'>模型</b>裝進(jìn)<b class='flag-5'>小盒子</b>:這個(gè)小魔盒直擊端側(cè)AIGC的痛點(diǎn)!

    AIBOX-1684X:把大語言模型“裝”進(jìn)小盒子

    AIBOX-1684X支持主流大模型私有化部署力高達(dá)32TOPS,同時(shí)也支持CNN、RNN、LSTM等傳統(tǒng)網(wǎng)絡(luò)架構(gòu),支持TensorFN
    的頭像 發(fā)表于 04-20 08:02 ?1170次閱讀
    AIBOX-<b class='flag-5'>1684X</b>:把大語言<b class='flag-5'>模型</b>“裝”進(jìn)<b class='flag-5'>小盒子</b>

    256Tops力!CSA1-N8S1684X力服務(wù)器

    (基于BM1684X的高力服務(wù)器)高力AI處理器BM1684X搭載了BM1684AI力So
    的頭像 發(fā)表于 03-23 08:02 ?1456次閱讀
    256Tops<b class='flag-5'>算</b>力!CSA1-N8S<b class='flag-5'>1684X</b><b class='flag-5'>算</b>力服務(wù)器

    源2.0適配FastChat框架,企業(yè)快速本地部署模型對話平臺

    ,且有數(shù)據(jù)隱私保護(hù)需求的本地部署場景。全面開放的對話模板功能,用戶可基于FastChat平臺,快速對不同參數(shù)規(guī)模的Yuan2.0基礎(chǔ)模型進(jìn)行訓(xùn)練、評估和應(yīng)用,將Yuan2.0系列基礎(chǔ)
    的頭像 發(fā)表于 02-29 09:57 ?778次閱讀
    源2.0適配FastChat框架,企業(yè)快速本地<b class='flag-5'>化</b><b class='flag-5'>部署</b>大<b class='flag-5'>模型</b>對話<b class='flag-5'>平臺</b>

    RADXA微服務(wù)器試用體驗(yàn)】Radxa Fogwise 1684X Mini 規(guī)格

    通過網(wǎng)絡(luò)可以了解到,RADXA微服務(wù)器的具體規(guī)格: 處理器:BM1684X 力:高達(dá)32Tops INT8峰值力 內(nèi)存:16GB L
    發(fā)表于 02-28 11:21

    NVIDIA AI Enterprise助力九州未來構(gòu)建MaaS平臺

    本案例中,九州未來的團(tuán)隊(duì)基于NVIDIA AI Enterprise的全棧軟件套件,構(gòu)建其 MaaS 大模型一體化開發(fā)及部署平臺,該平臺同時(shí)支持云端
    的頭像 發(fā)表于 01-10 17:24 ?1144次閱讀