精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

用基于英特爾? SGX 的可信執(zhí)行環(huán)境有效應對大語言模型隱私和安全挑戰(zhàn)

英特爾中國 ? 來源:未知 ? 2023-07-14 20:10 ? 次閱讀

1

可信執(zhí)行環(huán)境是什么?

大語言模型為什么需要它?

OpenAI 的 GPT 系列大語言模型(Large Language Mode,以下縮寫為 LLM)的興起與應用,也帶來了諸如數(shù)據(jù)泄露、數(shù)據(jù)濫用、模型被攻擊和知識產(chǎn)權被竊取等一些列隱私和安全風險或挑戰(zhàn)。

可信執(zhí)行環(huán)境(Trusted Execution Environment,以下縮寫為 TEE)是一項基于軟硬件組合創(chuàng)建安全執(zhí)行環(huán)境,能夠更好地確保計算和數(shù)據(jù)處理機密性和完整性。其關鍵機制為:

  • 安全隔離:通過硬件加密和內(nèi)存隔離等硬件隔離技術,將敏感數(shù)據(jù)和關鍵代碼與其他應用及操作系統(tǒng)相隔離,從而確保它們即使在系統(tǒng)其他部分被攻擊或受到惡意軟件影響時也能夠得到更好的保護。

  • 安全驗證:在啟動過程中進行身份驗證和完整性檢查,確保只有經(jīng)過授權的代碼和數(shù)據(jù)可以在其中運行,以此防止惡意軟件或未經(jīng)授權的訪問。

  • 安全執(zhí)行環(huán)境:提供包含加密算法、安全協(xié)議和密鑰管理等防護功能的執(zhí)行環(huán)境,用于處理敏感數(shù)據(jù)和執(zhí)行關鍵算法,以增強數(shù)據(jù)在執(zhí)行過程中的保密性和完整性。

TEE 與 LLM 可在多行業(yè)、多場景融合,TEE 可用于為 LLM 提供頗具商業(yè)落地價值的隱私和數(shù)據(jù)保護創(chuàng)新解決方案。

2

LLM 與 TEE 的融合需求

LLM 在許多行業(yè)的不同場景都有著廣泛應用,例如金融行業(yè)的風險評估和交易分析,醫(yī)療保健領域的醫(yī)學圖像識別、病歷紀錄和疾病預測,以及法律和合規(guī)行業(yè)的法律咨詢、合同審查和文書處理等。這些行業(yè)或場景中涉及到的數(shù)據(jù)多為重要敏感的交易數(shù)據(jù)或個人數(shù)據(jù),必須得到有效保護。將 TEE 與 LLM 融合,有助于在這類場景中更好地保障數(shù)據(jù)在 LLM 模型訓練和推理過程中的保密性。訓練階段,TEE 中的數(shù)據(jù)處理都處于加密狀態(tài);推理階段,TEE 則可保護用戶輸入和模型結(jié)果的隱私。同時,其硬件隔離和安全驗證機制可以更有效地防止未經(jīng)授權的訪問和攻擊,增強模型運行時的安全性。

3

TEE 與 LLM 融合的挑戰(zhàn):
資源和性能限制

  • 資源限制:TEE 的計算資源和存儲空間通常都非常有限,LLM 龐大的模型參數(shù)和計算需求可能會超出一般 TEE 的能力范圍。

  • 性能下降:I/O 數(shù)據(jù)的加密和安全計算操作會引入額外的計算開銷,導致模型訓練和推理性能有一定程度下降?;谒惴ǖ慕鉀Q方案可減少模型規(guī)模和計算需求,以適應 TEE 的資源限制,但 CPU 仍會成為制約 LLM 訓練的算力瓶頸。

4

基于英特爾 平臺的解決方案:
加速 TEE 與 LLM 融合應用

4.1 基于英特爾 SGX/TDX[1] 的 TEE 解決方案

英特爾自第三代英特爾 至強可擴展處理器開始內(nèi)置英特爾軟件防護擴展(英特爾SGX)技術,其安全飛地的容量最多可達單顆 CPU 512GB,雙路共計 1TB 容量,可滿足目前千億大模型的執(zhí)行空間需求。此外,該技術提供支持的機密計算可實現(xiàn)應用層、虛擬機(VM)、容器和功能層的數(shù)據(jù)隔離。無論是在云端、邊緣還是本地環(huán)境,都能確保計算與數(shù)據(jù)始終在私密性和安全性上獲得更全面的保護,以免暴露給云服務提供商、未經(jīng)授權的管理員和操作系統(tǒng),甚至是特權應用。另一方面,英特爾Trust Domain Extension(英特爾 TDX)可將客戶機操作系統(tǒng)和虛擬機應用與云端主機、系統(tǒng)管理程序和平臺的其他虛擬機隔離開來。它的信任邊界較英特爾SGX 應用層的隔離邊界更大,使受其保護的機密虛擬機比基于英特爾SGX 的安全飛地的應用更易于進行大規(guī)模部署和管理,在部署 LLM 這類復雜應用時,TDX 在易用性上更具優(yōu)勢。此外,今年推出的全新第四代英特爾 至強可擴展處理器內(nèi)置英特爾 AMX,可大幅提升矩陣運算性能,而英特爾 SGX/TDX也可為英特爾AMX、英特爾 DL Boost等計算指令提供支持,進而為 TEE 中的大模型賦予快速落地+優(yōu)化性能的雙重優(yōu)勢。 d386cf94-223e-11ee-962d-dac502259ad0.png

圖 1.SGX/TDX 的可信邊界

構(gòu)建完善的 TEE 生態(tài)系統(tǒng)對推動 LLM 的應用和發(fā)展至關重要。開發(fā)者需要能夠簡化集成和使用過程的面向 TEE 的開發(fā)者工具和框架。為此,英特爾在 SDK 的基礎上,推出了開源的 lib OS 項目 Gramine 來幫助開發(fā)者更好地使用基于英特爾 SGX的 TEE,助推 LLM 與 TEE 的融合。

4.1.1 大語言模型推理

使用私有數(shù)據(jù)進行個性化訓練的大模型不僅包含私有數(shù)據(jù)信息,其查詢本身也具有隱私性,尤其是基于邊端的非安全環(huán)境部署。基于英特爾SGX/TDX 的 TEE 可為大模型提供更安全的運行環(huán)境,在數(shù)據(jù)上傳云端前,查詢可先通過客戶端對傳輸內(nèi)容加密,云端只需在英特爾 SGX/TDX 中解密查詢問題,然后輸入大模型的推理服務中,并將所得結(jié)果在云端的 TEE 中加密后傳輸回本地客戶端。在整個工作流程中,客戶端以外的數(shù)據(jù)和運行態(tài)程序均處于密態(tài)環(huán)境當中,效率遠遠高于其他基于純密碼學的解決方案。目前像 LLAMA 7B、ChatGLM 6B 等模型都可以在該 TEE 方案上滿足實時可交互性能的運行。圖 2 展示了使用 LLM 部署知識問答的參考設計?;谟⑻貭朣GX/TDX 的 TEE 為實際部署 LLM 中的自有知識產(chǎn)權保護提供了一套完整的方案,優(yōu)化整個模型在查詢、傳輸和推理過程中的安全保護。

d3b13fd6-223e-11ee-962d-dac502259ad0.png

圖 2. 基于 TEE 的大語言模型私密問答

4.1.2 聯(lián)邦學習

借助基于TEE的聯(lián)邦學習解決方案[2](見圖 3),就可在多機構(gòu)之間實現(xiàn)基于 NLP 的深度學習例如使用 BERT 的命名體識別。在金融和醫(yī)療等行業(yè)提升準確性,實現(xiàn)多機構(gòu)數(shù)據(jù)互通,同時更好避免數(shù)據(jù)泄露。此方案中每個參與方包含一個Avalon[3]管理模塊和 Gramine 工作負載,均運行在英特爾SGX 的安全飛地中,在管理模塊彼此間的遠程認證完成執(zhí)行后,即可啟動聯(lián)邦學習過程,參與方在本地使用各自的數(shù)據(jù)集進行訓練,然后將梯度上傳至聚合方,聚合方進行聚合后將平均梯度下發(fā)至各參與方,以繼續(xù)進行下一輪訓練。對比圖 4 所示的 BERT + CRF 模型[4],此方案可以在強化隱私保護的同時,讓性能損失維持在 50% 以下[2]。

d3e9b582-223e-11ee-962d-dac502259ad0.png

圖 3.基于 TEE的聯(lián)邦學習

d44ba2e2-223e-11ee-962d-dac502259ad0.png

圖 4.BERT+CRF模型[4]

4.2 BigDL:端到端大模型和 TEE 融合的方案

據(jù)行業(yè)用戶反饋,LLM 在端到端應用中的痛點包括:

  • 軟件棧復雜,難以確保端到端應用的安全。LLM 的訓練和推理常依賴較多的軟件棧、服務和硬件。為保護用戶數(shù)據(jù)和模型產(chǎn)權,需確保每個環(huán)節(jié)的安全性(不同硬件、運行環(huán)境、網(wǎng)絡和存儲等)。

  • 計算量大,且對性能敏感。LLM 的計算量非常大,需引入足夠多的性能優(yōu)化。但是,不同模型、平臺和軟件棧需要使用不同的優(yōu)化方案,要在特定平臺上實現(xiàn)更理想的性能,需要長時間的性能調(diào)優(yōu)。

為解決這些痛點,由英特爾主導的開源項目 BigDL,近期就推出了針對 LLM 的隱私保護方案,其兩大主要功能為:

  • 提供端到端的安全保護:在不修改代碼的情況下,為單機和分布式的 LLM 應用提供端到端的安全保護功能。具體包括,基于英特爾 SGX/TDX 的 TEE、遠程證明、統(tǒng)一的密鑰管理接口和透明的加解密 API 等。

  • 實現(xiàn)一站式性能優(yōu)化:BigDL Nano 提供的針對 LLM 的一站式性能優(yōu)化方案,可讓現(xiàn)有 LLM 應用在幾乎不用修改代碼的情況下受益于英特爾 AMX、英特爾 AVX-512 和英特爾 Extension for PyTorch。同時,用戶還可利用 BigDL Nano 提供的 LLM API,快速構(gòu)建應用。

d4750510-223e-11ee-962d-dac502259ad0.png

圖 5.BigDL端到端安全的大模型方案

如圖 6 所示,在應用了 PPML(Privacy Preserving Machine Learning,隱私保護的機器學習)提供的安全技術后,由于更強的安全和隱私保護會帶來額外開銷,因此端到端應用性能會略有下降;但應用了 BigDL Nano 提供的優(yōu)化功能后,端到端的性能得到了顯著改善*,總體性能甚至高于沒有任何保護的明文性能。

d4a62532-223e-11ee-962d-dac502259ad0.png

圖 6.BigDL PPML + Nano 端到端性能損失情況

目前,該方案已經(jīng)開源,并開始陸續(xù)交付給行業(yè)客戶進行測試和集成[5]。

5

未來趨勢

TEE 提供了隱私保護和數(shù)據(jù)安全防護功能的創(chuàng)新解決方案,將在 LLM 實際落地過程中扮演重要角色。通過將二者融合,可更好地保障數(shù)據(jù)在訓練和推理過程中的保密性,增強對未經(jīng)授權訪問和模型結(jié)果篡改的防御。然而,在 TEE 中保護用戶隱私的同時,需要平衡性能需求,隨著大模型對于計算需求的大幅提升,算力可能會執(zhí)行在異構(gòu)硬件上,TEE 和異構(gòu)硬件的結(jié)合將成為未來發(fā)展趨勢。隨著 CPU 性能的提升以及內(nèi)置 AI 加速技術的升級和更新,在方便部署的場景下,CPU 會是大模型推理和 TEE 結(jié)合的首選,在訓練的場景下,基于 CPU 的 TEE 結(jié)合異構(gòu)硬件的加密支持,則會是大模型訓練甚至大模型聯(lián)邦訓練的技術方向。英特爾將一如既往地以軟硬結(jié)合的產(chǎn)品技術組合促進開發(fā)者參與,推動 LLM 與 TEE 的融合。 作者 都在從事 AI 和 SGX/TDX 相關工作 俞?。?/span>英特爾公司 AI 架構(gòu)師 李志強:英特爾公司平臺安全資深架構(gòu)師 李青青:英特爾公司安全軟件研發(fā)工程師 龔奇源:英特爾公司軟件架構(gòu)師

資料援引:[1]SGX/TDX:https://www.intel.cn/content/www/cn/zh/customer-spotlight/cases/innovation-data-protection-with-security-engines.html

[2]Wei Yu. et al. 2022, TEE based Cross-silo Trustworthy Federated Learning Infrastructure, FL-IJCAI'22

[3]https://github.com/hyperledger-archives/avalon

[4]Souza, F., Nogueira, R. and Lotufo, R. 2020, Portuguese Named Entity Recognition using Bert-CRF, arXiv.org
(請參見
https://arxiv.org/pdf/1909.10649.pdf

[5]https://github.com/intel-analytics/BigDL/tree/main/python/llm

*性能優(yōu)化效果與具體平臺、模型和環(huán)境有關


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    60

    文章

    9888

    瀏覽量

    171533
  • cpu
    cpu
    +關注

    關注

    68

    文章

    10826

    瀏覽量

    211160

原文標題:用基于英特爾? SGX 的可信執(zhí)行環(huán)境有效應對大語言模型隱私和安全挑戰(zhàn)

文章出處:【微信號:英特爾中國,微信公眾號:英特爾中國】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    使用PyTorch在英特爾獨立顯卡上訓練模型

    《PyTorch 2.5重磅更新:性能優(yōu)化+新特性》中的一個新特性就是:正式支持在英特爾獨立顯卡上訓練模型!
    的頭像 發(fā)表于 11-01 14:21 ?228次閱讀
    使用PyTorch在<b class='flag-5'>英特爾</b>獨立顯卡上訓練<b class='flag-5'>模型</b>

    HPM6750evkmini如何實現(xiàn)可信執(zhí)行環(huán)境

    在HPM6700的datasheet中的1.2.15 信息安全系統(tǒng)有提到“基于BOOT ROM 的安全啟動機制,支持加密啟動,支持可信執(zhí)行環(huán)境
    發(fā)表于 09-25 09:27

    曝Apollo擬向英特爾投資50億美元

    資產(chǎn)管理巨頭Apollo近日透露出對科技巨頭英特爾的濃厚興趣,計劃進行一筆高達50億美元的股權投資,這一數(shù)字約占英特爾當前市值(931.9億美元)的5.4%,彰顯了Apollo對英特爾戰(zhàn)略轉(zhuǎn)型藍圖的高度認可與信心。此消息為
    的頭像 發(fā)表于 09-24 11:38 ?337次閱讀

    英特爾醞釀出售Mobileye股權以應對挑戰(zhàn)

    面對全球科技行業(yè)的持續(xù)變革與自身業(yè)務的戰(zhàn)略調(diào)整,英特爾公司(Intel)正考慮對其自動駕駛系統(tǒng)領域的核心資產(chǎn)——Mobileye Global進行部分股權的出售。這一舉措標志著英特爾在全面審視其業(yè)務版圖后,可能采取的重大財務與戰(zhàn)略調(diào)整。
    的頭像 發(fā)表于 09-06 16:31 ?410次閱讀

    英特爾IT的發(fā)展現(xiàn)狀和創(chuàng)新動向

    AI大模型的爆發(fā),客觀上給IT的發(fā)展帶來了巨大的機會。作為把IT發(fā)展上升為戰(zhàn)略高度的英特爾,自然在推動IT發(fā)展中注入了強勁動力。英特爾IT不僅專注于創(chuàng)新、AI和優(yōu)化,以及英特爾員工、最
    的頭像 發(fā)表于 08-16 15:22 ?516次閱讀

    從運動員到開發(fā)者: 英特爾以開放式AI系統(tǒng)應對多重挑戰(zhàn)

    打造的生成式AI(GenAI)檢索增強生成(RAG)解決方案。該成果深度展示了英特爾如何通過基于英特爾?至強?處理器和英特爾??Gaudi AI加速器的開放式AI系統(tǒng)及平臺,幫助開發(fā)者和企業(yè)
    的頭像 發(fā)表于 07-25 09:28 ?250次閱讀
    從運動員到開發(fā)者: <b class='flag-5'>英特爾</b>以開放式AI系統(tǒng)<b class='flag-5'>應對</b>多重<b class='flag-5'>挑戰(zhàn)</b>

    英特爾CEO:AI時代英特爾動力不減

    英特爾CEO帕特·基辛格堅信,在AI技術的飛速發(fā)展之下,英特爾的處理器仍能保持其核心地位。基辛格公開表示,摩爾定律仍然有效,而英特爾在處理器和芯片技術上的創(chuàng)新能力將持續(xù)驅(qū)動公司前進。
    的頭像 發(fā)表于 06-06 10:04 ?382次閱讀

    英特爾助力京東云CPU加速AI推理,以大模型構(gòu)建數(shù)智化供應鏈

    英特爾助力京東云CPU加速AI推理,以大模型構(gòu)建數(shù)智化供應鏈
    的頭像 發(fā)表于 05-27 11:50 ?500次閱讀
    <b class='flag-5'>英特爾</b>助力京東云<b class='flag-5'>用</b>CPU加速AI推理,以大<b class='flag-5'>模型</b>構(gòu)建數(shù)智化供應鏈

    已有超過500款AI模型英特爾酷睿Ultra處理器上得以優(yōu)化運行

    近日,英特爾宣布在全新英特爾 酷睿 Ultra處理器上,有超過500款AI模型得以優(yōu)化運行。
    的頭像 發(fā)表于 05-11 09:31 ?683次閱讀

    AlmaLinux 9.4兼容棄的RHEL硬件,包括英特爾Data Streaming設備

    AlmaLinux 9.4效仿 RHEL 9.4增強多項功能/特性,例如全力兼容英特爾Data Streaming Accelerator驅(qū)動及英特爾SGX,同時以技術預覽方式支持NVMe over TCP,并為用戶提供Pyth
    的頭像 發(fā)表于 05-07 10:57 ?710次閱讀

    英特爾AI產(chǎn)品助力其運行Meta新一代大語言模型Meta Llama 3

    英特爾豐富的AI產(chǎn)品——面向數(shù)據(jù)中心的至強處理器,邊緣處理器及AI PC等產(chǎn)品為開發(fā)者提供最新的優(yōu)化,助力其運行Meta新一代大語言模型Meta Llama 3
    的頭像 發(fā)表于 04-28 11:16 ?583次閱讀

    浪潮信息與英特爾合作推出一種大模型效率工具“YuanChat”

    3月26日,浪潮信息與英特爾正式宣布,浪潮信息“源2.0系列基礎大模型”已和最新的英特爾? 酷睿? Ultra處理器平臺完成適配,本地推理速度提升100%。
    的頭像 發(fā)表于 03-27 13:50 ?588次閱讀
    浪潮信息與<b class='flag-5'>英特爾</b>合作推出一種大<b class='flag-5'>模型</b>效率工具“YuanChat”

    英特爾推AI增效車芯片,與極氪汽車達成合作

    對此,英特爾汽車部門副總裁兼總經(jīng)理Jack Weast表示,英特爾以“整車”方式應對行業(yè)挑戰(zhàn),創(chuàng)新的AI解決方案助力電動車業(yè)轉(zhuǎn)型。收購Silicon Mobility與其可持續(xù)發(fā)展目標
    的頭像 發(fā)表于 01-10 10:39 ?691次閱讀

    英特爾的2023:以強大執(zhí)行力推進產(chǎn)品、技術創(chuàng)新

    英特爾公司首席執(zhí)行官帕特·基辛格曾用兩個關鍵詞概括英特爾的“核心”和“靈魂”:一個是“創(chuàng)新”,一個是“執(zhí)行力”。在2023年,面對日新月異的數(shù)字化進程帶來的新需求和新
    的頭像 發(fā)表于 12-29 14:33 ?358次閱讀
    <b class='flag-5'>英特爾</b>的2023:以強大<b class='flag-5'>執(zhí)行</b>力推進產(chǎn)品、技術創(chuàng)新

    英特爾模型全適配,大語言模型已成功部署于CPU

    他進一步指出,英特爾作為芯片制造商,始終致力于對“合適尺寸”模型的全面適配。面對大模型領域激烈的市場競爭,每個季度大約有4-5款新模型上市,一旦發(fā)現(xiàn)任何新的
    的頭像 發(fā)表于 12-11 15:41 ?1080次閱讀