精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何利用spaCy和Cython以約100倍于Python的速度實現NLP

馬哥Linux運維 ? 來源:未知 ? 作者:李倩 ? 2018-07-24 16:52 ? 次閱讀

Cython 是一個工具包,可以使你在 Python 中編譯 C語言,這就是為什么 numpy 和 pandas 很快的原因,Cython 就是 Python 的超集。在本文中,作者將為我們介紹他的 GitHub 項目NeuralCoref v3.0,詳解如何利用 spaCy 和 Cython 以約 100 倍于 Python 的速度實現 NLP 項目。

相關 Jupyter Notebook 地址:https://github.com/huggingface/100-times-faster-nlp

去年我們發布 Python 包 coreference resolution package 后,我們收到了來自社區的精彩反饋,并且人們開始在很多應用中使用它,其中一些與我們原來的對話用例迥異。

我們發現,盡管對話信息的處理速度非常好,但對于長的新聞文章來說,處理速度可能會非常慢。

我決定詳細研究這一問題,最終成果即 NeuralCoref v3.0,它在相同準確率的情況下比老版本快 100 倍左右(每秒幾千字),同時兼顧 Python 庫的易用性和兼容性。

NeuralCoref v3.0 :https://github.com/huggingface/neuralcoref/

我想在這篇文章中分享一些關于這個項目的經驗,特別是:

如何用 Python 設計一個高速模塊;

如何利用 spaCy 的內部數據結構來有效地設計超高速 NLP 函數。

所以我在這里有點作弊,因為我們會談論 Python,但也談論一些 Cython 的神奇作用。但是,你知道嗎?Cython 是 Python 的超集,所以不要讓它嚇跑你!

你現在的 Python 程序已經是 Cython 程序。

有幾種情況下你可能需要加速,例如:

你正在使用 Python 開發一個 NLP 的生產模塊;

你正在使用 Python 計算分析大型 NLP 數據集;

你正在為深度學習框架,如 PyTorch / TensorFlow,預處理大型訓練集,或者你的深度學習批處理加載器中的處理邏輯過于繁重,這會降低訓練速度。

再強調一遍:我同步發布了一個 Jupyter Notebook,其中包含我在本文中討論的例子。試試看!

Jupyter Notebook:https://github.com/huggingface/100-times-faster-nlp

加速第一步:剖析

首先要知道的是,你的大多數代碼在純 Python 環境中可能運行的不錯,但是如果你多用點心,其中一些瓶頸函數可能讓你的代碼快上幾個數量級。

因此,你首先應該分析你的 Python 代碼并找出瓶頸部分的位置。使用如下的 cProfile 是一種選擇:

importcProfileimportpstatsimportmyslowmodulecProfile.run('myslowmodule.run()','restats')p=pstats.Stats('restats')p.sortstats('cumulative').printstats(30)

如果你使用神經網絡,你可能會發現瓶頸部分是幾個循環,并且涉及 Numpy 數組操作。

那么,我們如何加速這些循環代碼?

在 Python 中使用一些 Cython 加速循環

讓我們用一個簡單的例子來分析這個問題。假設我們有一大堆矩形,并將它們存儲進一個 Python 對象列表,例如 Rectangle 類的實例。我們的模塊的主要工作是迭代這個列表,以便計算有多少矩形的面積大于特定的閾值。

我們的 Python 模塊非常簡單,如下所示:

fromrandomimportrandomclassRectangle:def__init__(self,w,h):self.w=wself.h=hdefarea(self):returnself.w*self.hdefcheck_rectangles(rectangles,threshold):n_out=0forrectangleinrectangles:ifrectangle.area()>threshold:n_out+=1returnn_outdefmain():n_rectangles=10000000rectangles=list(Rectangle(random(),random())foriinrange(n_rectangles))n_out=check_rectangles(rectangles,threshold=0.25)print(n_out)

check_rectangles 函數是瓶頸部分!它對大量的 Python 對象進行循環,這可能會很慢,因為 Python 解釋器在每次迭代時都會做大量工作(尋找類中的求面積方法、打包和解包參數、調用 Python API ...)。

Cython 將幫助我們加速循環。

Cython 語言是 Python 的超集,它包含兩種對象:

Python 對象是我們在常規 Python 中操作的對象,如數字、字符串、列表、類實例...

Cython C 對象是 C 或 C ++ 對象,比如 double、int、float、struct、vectors。這些可以由 Cython 在超快速的底層代碼中編譯。

快速循環只是 Cython 程序(只能訪問 Cython C 對象)中的一個循環。

設計這樣一個循環的直接方法是定義 C 結構,它將包含我們在計算過程中需要的所有要素:在我們的例子中,就是矩形的長度和寬度。

然后,我們可以將矩形列表存儲在這種結構的 C 數組中,并將這個數組傳遞給我們的 check_rectangle 函數。此函數現在接受一個 C 數組作為輸入,因此通過 cdef 關鍵字而不是 def 將其定義為 Cython 函數(請注意,cdef 也用于定義 Cython C 對象)。

下面是我們的 Python 模塊的快速 Cython 版:

fromcymem.cymemcimportPoolfromrandomimportrandomcdefstructRectangle:floatwfloathcdefintcheck_rectangles(Rectangle*rectangles,intn_rectangles,floatthreshold):cdefintn_out=0#Carrayscontainnosizeinformation=>weneedtogiveitexplicitlyforrectangleinrectangles[:n_rectangles]:ifrectangles[i].w*rectangles[i].h>threshold:n_out+=1returnn_outdefmain():cdef:intn_rectangles=10000000floatthreshold=0.25Poolmem=Pool()Rectangle*rectangles=mem.alloc(n_rectangles,sizeof(Rectangle))foriinrange(n_rectangles):rectangles[i].w=random()rectangles[i].h=random()n_out=check_rectangles(rectangles,n_rectangles,threshold)print(n_out)

我們在這里使用了原生 C 指針數組,但你也可以選擇其他選項,特別是 C ++ 結構,如向量、對、隊列等。在這個片段中,我還使用了 cymem 的便利的 Pool()內存管理對象,以避免必須手動釋放分配的 C 數組。當 Pool 由 Python 當做垃圾回收時,它會自動釋放我們使用它分配的內存。

spaCy API 的 Cython Conventions 是 Cython 在 NLP 中的實際運用的一個很好的參考。

spaCy:https://spacy.io

Cython Conventions:https://spacy.io/api/cython#conventions

讓我們試試這個代碼吧!

有很多方法可以測試、編譯和發布 Cython 代碼!Cython 甚至可以直接用在 Python 這樣的 Jupyter Notebook 中。

Jupyter Notebook:http://cython.readthedocs.io/en/latest/src/reference/compilation.html#compiling-notebook

首先使用 pip install cython 安裝 Cython

在 Jupyter 的第一次測試

使用 %load_ext Cython 將 Cython 插件加載到 Jupyter notebook 中。

現在,你可以使用黑魔術命令 %% cython 編寫像 Python 代碼一樣的 Cython 代碼。

如果在執行 Cython 單元時遇到編譯錯誤,請務必檢查 Jupyter 終端輸出以查看完整的信息。

大多數情況下,在 %% cython 編譯為 C ++(例如,如果你使用 spaCy Cython API)或者 import numpy(如果編譯器不支持 NumPy)之后,你會丟失 - + 標記。

正如我在開始時提到的,查看這篇文章的同步 Jupyter Notebook,該 Notebook 包含本文討論的所有示例。

編寫、使用和發布 Cython 代碼

Cython 代碼寫在 .pyx 文件中。這些文件由 Cython 編譯器編譯為 C 或 C ++ 文件,然后通過系統的 C 編譯器編譯為字節碼文件。Python 解釋器可以使用字節碼文件。

你可以使用 pyximport 直接在 Python 中加載 .pyx 文件:

>>>importpyximport;pyximport.install()>>>importmy_cython_module

你還可以將你的 Cython 代碼構建為 Python 包,并將其作為常規 Python 包導入/發布,詳見下方地址。這可能需要一些時間才能開始工作,尤其在全平臺上。如果你需要一個有效示例,spaCy』s install script 是一個相當全面的例子。

導入教程:http://cython.readthedocs.io/en/latest/src/tutorial/cython_tutorial.html#

Before we move to some NLP, let』s quickly talk about the def, cdef and cpdef keywords, because they are the main things you need to grab to start using Cython.

在我們轉向 NLP 之前,讓我們先快速討論一下 def、cdef 和 cpdef 關鍵字,因為它們是你開始使用 Cython 需要掌握的主要內容。

你可以在 Cython 程序中使用三種類型的函數:

Python 函數,用常用的關鍵字 def 定義。它們可作為輸入和輸出的 Python 對象。也可以在內部同時使用 Python 和 C / C ++ 對象,并可以調用 Cython 和 Python 函數。

用 cdef 關鍵字定義的 Cython 函數。它們可以作為輸入,在內部使用并輸出 Python 和 C / C ++對象。這些函數不能從 Python 空間訪問(即 Python 解釋器和其他可導入 Cython 模塊的純 Python 模塊),但可以由其他 Cython 模塊導入。

用 cpdef 關鍵字定義的 Cython 函數就像 cdef 定義的 Cython 函數一樣,但它們也提供了一個 Python 封裝器,因此可以從 Python 空間(以 Python 對象作為輸入和輸出)以及其他 Cython 模塊(以 C / C ++ 或 Python 對象作為輸入)中調用它們。

cdef 關鍵字有另一種用途,即在代碼中定義 Cython C / C ++ 對象。除非用這個關鍵字定義對象,否則它們將被視為 Python 對象(因此訪問速度很慢)。

使用 Cython 與 spaCy 來加速 NLP

這些東西又好又快,但是...... 我們現在還沒有融入 NLP!沒有字符串操作、沒有 unicode 編碼,也沒有我們在自然語言處理中幸運擁有的微妙聯系。

官方的 Cython 文檔甚至建議不要使用 C 字符串:

一般來說:除非你知道自己在做什么,否則應盡可能避免使用 C 字符串,而應使用 Python 字符串對象。

那么我們如何在使用字符串時在 Cython 中設計快速循環?

spaCy 會幫我們的。

spaCy 解決這個問題的方式非常聰明。

將所有字符串轉換為 64 位哈希碼

spaCy 中的所有 unicode 字符串(token 的文本、其小寫文本、引理形式、POS 鍵標簽、解析樹依賴關系標簽、命名實體標簽...)都存儲在叫 StringStore 的單數據結構中,它們在里面由 64 位散列索引,即 C uint64_t。

StringStore 對象實現了 Python unicode 字符串和 64 位哈希碼之間的查找表。

它可以通過 spaCy 任意處及任意對象訪問(請參閱上圖),例如 nlp.vocab.strings、doc.vocab.strings 或 span.doc.vocab.string。

當某個模塊需要對某些 token 執行快速處理時,僅使用 C 級別的 64 位哈希碼而不是字符串。調用 StringStore 查找表將返回與哈希碼相關聯的 Python unicode 字符串。

但是,spaCy 做的遠不止這些,它使我們能夠訪問文檔和詞匯表的完全覆蓋的 C 結構,我們可以在 Cython 循環中使用這些結構,而不必自定義結構。

spaCy 的內部數據結構

與 spaCy Doc 對象關聯的主要數據結構是 Doc 對象,該對象擁有已處理字符串的 token 序列(「單詞」)以及 C 對象中的所有稱為 doc.c 的標注,它是一個 TokenC 結構數組。

TokenC 結構包含我們需要的關于每個 token 的所有信息。這些信息以 64 位哈希碼的形式存儲,可以重新關聯到 unicode 字符串,就像我們剛剛看到的那樣。

要深入了解這些 C 結構中的內容,只需查看剛創建的 SpaCy 的 Cython API doc。

我們來看看一個簡單的 NLP 處理示例。

使用 spaCy 和 Cython 進行快速 NLP 處理

假設我們有一個需要分析的文本數據集

importurllib.requestimportspacywithurllib.request.urlopen('https://raw.githubusercontent.com/pytorch/examples/master/word_language_model/data/wikitext-2/valid.txt')asresponse:text=response.read()nlp=spacy.load('en')doc_list=list(nlp(text[:800000].decode('utf8'))foriinrange(10))

我在左邊寫了一個腳本,它生成用于 spaCy 解析的 10 份文檔的列表,每個文檔大約 170k 字。我們也可以生成每個文檔 10 個單詞的 170k 份文檔(比如對話數據集),但創建速度較慢,因此我們堅持使用 10 份文檔。

我們想要在這個數據集上執行一些 NLP 任務。例如,我們想要統計數據集中單詞「run」作為名詞的次數(即用 spaCy 標記為「NN」詞性)。

一個簡單明了的 Python 循環就可以做到:

defslow_loop(doc_list,word,tag):n_out=0fordocindoc_list:fortokindoc:iftok.lower_==wordandtok.tag_==tag:n_out+=1returnn_outdefmain_nlp_slow(doc_list):n_out=slow_loop(doc_list,'run','NN')print(n_out)

但它也很慢!在我的筆記本電腦上,這段代碼需要大約 1.4 秒才能得到結果。如果我們有一百萬份文件,則需要一天以上才能給出結果。

我們可以使用多線程,但在 Python 中通常不是很好的解決方案,因為你必須處理 GIL。另外,請注意,Cython 也可以使用多線程!而且這實際上可能是 Cython 最棒的部分,因為 GIL 被釋放,我們可以全速運行。Cython 基本上直接調用 OpenMP。

現在我們嘗試使用 spaCy 和部分 Cython 加速我們的 Python 代碼。

首先,我們必須考慮數據結構。我們將需要一個 C 數組用于數據集,指針指向每個文檔的 TokenC 數組。我們還需要將我們使用的測試字符串(「run」和「NN」)轉換為 64 位哈希碼。

當我們所需的數據都在 C 對象中時,我們可以在數據集上以 C 的速度進行迭代。

下面是如何使用 spaCy 在 Cython 中編寫的示例:

%%cython-+importnumpy#Sometimewehaveafailtoimportnumpycompilationerrorifwedon'timportnumpyfromcymem.cymemcimportPoolfromspacy.tokens.doccimportDocfromspacy.typedefscimporthash_tfromspacy.structscimportTokenCcdefstructDocElement:TokenC*cintlengthcdefintfast_loop(DocElement*docs,intn_docs,hash_tword,hash_ttag):cdefintn_out=0fordocindocs[:n_docs]:forcindoc.c[:doc.length]:ifc.lex.lower==wordandc.tag==tag:n_out+=1returnn_outdefmain_nlp_fast(doc_list):cdefinti,n_out,n_docs=len(doc_list)cdefPoolmem=Pool()cdefDocElement*docs=mem.alloc(n_docs,sizeof(DocElement))cdefDocdocfori,docinenumerate(doc_list):#Populateourdatabasestructuredocs[i].c=doc.cdocs[i].length=(doc).lengthword_hash=doc.vocab.strings.add('run')tag_hash=doc.vocab.strings.add('NN')n_out=fast_loop(docs,n_docs,word_hash,tag_hash)print(n_out)

代碼有點長,因為我們必須在調用 Cython 函數之前在 main_nlp_fast 中聲明并填充 C 結構。(如果你在代碼中多次使用低級結構,使用 C 結構包裝的 Cython 擴展類型來設計我們的 Python 代碼是比每次填充 C 結構更優雅的選擇。這就是大多數 spaCy 的結構,它是一種結合了快速,低內存以及與外部 Python 庫和函數接口的簡便性的非常優雅的方法。)

但它也快很多!在我的 Jupyter Notebook 中,這個 Cython 代碼的運行時間大約為 20 毫秒,比我們的純 Python 循環快大約 80 倍。

Jupyter Notebook cell 中編寫的模塊的絕對速度同樣令人印象深刻,并且可以為其他 Python 模塊和函數提供本地接口:在 30ms 內掃描約 1,700 萬字意味著我們每秒處理高達 8000 萬字。

我們這就結束了使用 Cython 進行 NLP 的快速介紹。我希望你喜歡它。

Cython 還有很多其他的東西可講,但這會讓我們遠離主題。從現在開始,最好的地方可能就是 Cython tutorials 的概述和適用于 NLP 的 spaCy’s Cython page。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • C語言
    +關注

    關注

    180

    文章

    7601

    瀏覽量

    136251
  • python
    +關注

    關注

    56

    文章

    4783

    瀏覽量

    84473
  • nlp
    nlp
    +關注

    關注

    1

    文章

    487

    瀏覽量

    22015

原文標題:教程 | 比Python快100倍,利用spaCy和Cython實現高速NLP項目

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    2018年為數據科學領域中豐富的Python庫集合

    SpaCy 是一個具有優秀示例、API 文檔和演示應用程序的自然語言處理庫。這個庫是用 Cython 語言編寫的,CythonPython 的 C 擴展。它支持近 30 種語言,
    的頭像 發表于 06-24 09:54 ?3663次閱讀

    目前常用的自然語言處理開源項目/開發包大匯總

    等性能:功能強大,支持二十多種語言(然而目前還不支持中文,可以閱讀官方文檔了解更多信息https://spacy.io/usage/),號稱是工業級強度的Python NLP工具包,區別
    發表于 11-26 10:31

    Py之cythonpython庫之cython的簡介、安裝、使用方法之詳細攻略

    Py之cythonpython庫之cython的簡介、安裝、使用方法之詳細攻略
    發表于 12-19 17:05

    三種提高Python代碼性能的簡便方法

    ,基準,基準、二是盡可能避免循環和三使用Cython編譯Python模塊三點內容。通過這三種方法,如果您想在Jupyter筆記本電腦中利用Cython,可以使用%%
    發表于 08-03 18:37

    Cython 是什么?為什么會有 Cython?

    ,而這些循環如果用 C 語言來實現會快上百,但是不熟悉 C 或者不知道 Python 如何與 C 進行交互;因為 Python 解釋器的性能原因,如果將 CPython 解釋器換成
    發表于 06-16 16:11

    python 循環語句具有C語言級別的性能

    我們可以通過一些優化,確保 Cython 能夠將 Python 循環轉換為高效的 C 循環。n = 100for i in range(n): ...上面是一個標準的 Python f
    發表于 06-24 16:02

    FPGA公司2倍于半導體行業的速度發展

    FPGA公司2倍于半導體行業的速度發展 據Raymond James Equity市場研究機構的分析師Hans Mosesmann周二發表的報告,Xilinx公司和Altera公司,這兩家共同占據著FPGA市場85%的份額
    發表于 12-11 08:59 ?341次閱讀

    瑞士推出能量三倍于鋰電池的可充電鋅氧電池

    瑞士推出能量三倍于鋰電池的可充電鋅氧電池     瑞士ReVolt
    發表于 12-19 08:29 ?1033次閱讀

    全球首款Android 4G手機今夏上市 速度10倍于3G

    全球首款Android 4G手機今夏上市 速度10倍于3G 宏達電推
    發表于 03-27 08:48 ?684次閱讀

    LED電源壓電路

    圖(a),利用電容C1、C2儲存電荷,利用閃爍發光二極管自身的振蕩,驅動繼電器開關轉換,不斷把C1和電源電壓疊加,在C2上取得二倍于電源電壓值,該電路輸出電流10mA左右。繼電器采
    發表于 09-28 10:06 ?2917次閱讀
    LED電源<b class='flag-5'>倍</b>壓電路

    cython編寫程序能夠得到更高的性能

    根據一些我收到的反饋,大家似乎有點混淆——Cython是用來生成 C 擴展到而不是獨立的程序的。所有的加速都是針對一個已經存在的 Python 應用的一個函數進行的。沒有使用C 或 Lisp 重寫
    的頭像 發表于 01-16 16:35 ?5131次閱讀
    用<b class='flag-5'>cython</b>編寫程序能夠得到更高的性能

    NLP的介紹和如何利用機器學習進行NLP以及三種NLP技術的詳細介紹

    本文用簡潔易懂的語言,講述了自然語言處理(NLP)的前世今生。從什么是NLP到為什么要學習NLP,再到如何利用機器學習進行NLP,值得一讀。
    的頭像 發表于 06-10 10:26 ?7.7w次閱讀
    <b class='flag-5'>NLP</b>的介紹和如何<b class='flag-5'>利用</b>機器學習進行<b class='flag-5'>NLP</b>以及三種<b class='flag-5'>NLP</b>技術的詳細介紹

    中國AI服務器2倍于全球增速,加速計算多元算力崛起

    AI與行業的融合速度在逐漸加快,AI技術的廣泛應用促使對基礎架構的需求在不斷增加。2019年中國AI服務器市場規模達23.3億美元,同比增長57.9%,2倍于全球AI服務器市場增速。
    的頭像 發表于 05-22 08:40 ?1.9w次閱讀

    Cython是什么,為什么會有Cython

    的循環,而這些循環如果用 C 語言來實現會快上百,但是不熟悉 C 或者不知道 Python 如何與 C 進行交互; 因為 Python 解釋器的性能原因,如果將 CPython 解釋
    的頭像 發表于 06-16 16:11 ?1741次閱讀

    詳解Python的for和while循環

    Python 的 for 和 while 循環是靈活并且高級的,語法自然、讀起來像偽代碼。而 Cython 也支持 for 和 while,無需修改。但由于循環通常占據程序運行時的大部分時間,因此我們可以通過一些優化,確保 Cython
    的頭像 發表于 06-24 16:02 ?1470次閱讀