前言
英特爾公司發(fā)行的模型部署工具 OpenVINO 模型部署套件,可以實現(xiàn)在不同系統(tǒng)環(huán)境下運行,且發(fā)布的 OpenVINO 2023 最新版目前已經(jīng)支持 MacOS 系統(tǒng)并同時支持在蘋果 M 系列芯片上部署模型。在該項目中,我們將向大家展示如何在 MacOS 系統(tǒng)、M2芯片的 Macbook Air 電腦上,展示使用 OpenVINO C++ API 部署深度學習模型。
1. OpenVINO
英特爾發(fā)行版 OpenVINO 工具套件基于 oneAPI 而開發(fā),可以加快高性能計算機視覺和深度學習視覺應用開發(fā)速度工具套件,適用于從邊緣到云的各種英特爾平臺上,幫助用戶更快地將更準確地真實世界結果部署到生產(chǎn)系統(tǒng)中。通過簡化的開發(fā)工作流程,OpenVINO 可賦能開發(fā)者在現(xiàn)實世界中部署高性能應用程序和算法。
OpenVINO 2023.2 于 2023 年 11 月 16 日發(fā)布,該工具包帶來了挖掘生成人工智能全部潛力的新功能。更多的生成式 AI 覆蓋和框架集成,以最大限度地減少代碼更改,并且擴展了對直接 PyTorch 模型轉換的模型支持。支持更多新的模型,包括 LLaVA、chatGLM、Bark 和 LCM 等著名模型。
支持更廣泛的大型語言模型(LLM)和更多模型壓縮技術,支持運行時推理支持以下 Int4 模型壓縮格式,通過神經(jīng)網(wǎng)絡壓縮框架(NNCF) 進行本機 Int4 壓縮等一系列新的功能。
通過 OpenVINO 官網(wǎng)信息,我們可以看出,目前 OpenVINO已經(jīng)能夠在蘋果 MacOS 系統(tǒng)、M 系列芯片上運行,這為使用 MacOS 系統(tǒng)的開發(fā)者提供了很好的工具。因此在此處,我們將在 MacOS 系統(tǒng)、M2芯片的 Macbook Air 電腦上,展示使用 OpenVINO C++ API 部署深度學習模型的詳細流程。
2. OpenVINO 下載
官方在發(fā)布版本中已經(jīng)提供 MacOS 系統(tǒng)的編譯庫,因此在此處我們只需要下載官方編譯庫即可。
首先訪問 OpenVINO 網(wǎng)站,依次選擇版本號、操作系統(tǒng)、安裝方式等內容,然后點擊下載,如下圖所示:
OpenVINO 官網(wǎng):
https://www.intel.com/content/www/us/en/developer/tools/openvino-toolkit/download.html
下面是官方編譯的文件,此處主要提供了兩個版本,一個是適用于蘋果電腦之前的版本,主要是 MacOS 10 以及之前的版本系統(tǒng)并且使用的是 Intel CPU,另一個是使用了蘋果的 M 系列芯片的新版本電腦,主要是 MacOS 11 之后的系統(tǒng)。大家可以根據(jù)自己的電腦進行選擇:
下載完后,將該文件解壓到任意文件夾,在此處為了方便后續(xù)使用一集更新,將其解壓到用戶文件夾,如下圖所示:
后續(xù)我們會使用 CMake 進行項目編譯,因此我們此處無需再做其他的設置。
其他環(huán)境配置:
● MacOS:14.2.1
● CMake:3.28
● Make:3.81
●編譯軟件:Visual Studio Code
● OpenCV:4.8.0 其他環(huán)境配置此處不做過多贅述,OpenCV 環(huán)境安裝可以參考下述文章實現(xiàn):【OpenCV】在 MacOS 上源碼編譯 OpenCV
3. 代碼實現(xiàn)
此處我們以 Yolov8圖片分類模型為例進行項目測試,由于該模型之前我們已經(jīng)多次使用,所以在此處不再做耕作的闡述,具體代碼如下所示:
#include#include #include #include #include #include "openvino/openvino.hpp" //openvino header file #include "opencv2/opencv.hpp" //opencv header file int main(int argc, char* argv[]) { ov::Version version = ov::get_openvino_version(); std::cout << version.description << ": " << version.buildNumber << std::endl; ? ?// -------- Step 1. Initialize OpenVINO Runtime Core -------- ? ?ov::Core core; ? ?// -------- Step 2. Compile the Model -------- ? ?auto compiled_model = core.compile_model("yolov8s-cls.xml", "CPU"); ? ?// -------- Step 3. Create an Inference Request -------- ? ?ov::InferRequest infer_request = compiled_model.create_infer_request(); ? ?// -------- Step 4.Read a picture file and do the preprocess -------- ? ?cv::Mat img = cv::imread("image.jpg"); ? ?// Preprocess the image ? ?int col = img.cols; ? ?int row = img.rows; ? ?int _max = MAX(col, row); ? ?cv::Mat letterbox_img = cv::zeros(_max, _max, CV_8UC3); ? ?img.copyTo(letterbox_img(cv::Rect(0, 0, col, row))); ? ? ? ?cv::Mat blob = cv::blobFromImage(letterbox_img, 1.0 / 255.0, cv::Size(224, 224), cv::Scalar(), true); ? ?// -------- Step 5. Feed the blob into the input node of the Model ------- ? ?// Get input port for model with one input ? ?auto input_port = compiled_model.input(); ? ?std::cout << "The shape of input tensor:" << input_port.get_shape() << std::endl; ? ?// Create tensor from external memory ? ?ov::Tensor input_tensor(input_port.get_element_type(), input_port.get_shape(), blob.ptr(0)); ? ?// Set input tensor for model with one input ? ?infer_request.set_input_tensor(input_tensor); ? ?// -------- Step 6. Start inference -------- ? ?infer_request.infer(); ? ?struct timeval start_time, end_time; ? ?gettimeofday(&start_time,NULL); ? ?infer_request.infer(); ? ?gettimeofday(&end_time,NULL); ? ?// Get the elapsed millisecond time ? ?double elapsed_time = (end_time.tv_sec - start_time.tv_sec)*1000 + (end_time.tv_usec - start_time.tv_usec)/1000; ? ?// -------- Step 7. Get the inference result -------- ? ?auto output = infer_request.get_output_tensor(0); ? ?auto output_shape = output.get_shape(); ? ?std::cout << "The shape of output tensor:" << output_shape << std::endl; ? ?// -------- Step 8. Postprocess the result -------- ? ?float* output_buffer = output.data (); std::vector result(output_buffer, output_buffer + output_shape[1]); auto max_idx = std::max_element(result.begin(), result.end()); int class_id = max_idx - result.begin(); float score = *max_idx; std::cout << "Class ID:" << class_id << " Score:" <
在該代碼中,主要是獲取 OpenVINO 版本信息,然后按照模型部署流程部署測試了 Yolov8 圖片分類模型,并打印輸出結果以及推理時間。
4. 項目編譯運行
在該項目中通過 CMake 編譯項目,定義的 CMakeLists.txt 文件如下所示:
cmake_minimum_required(VERSION 3.28) project(test_openvino) set(OpenCV_DIR /Users/ygj/3lib/opencv_4.8.0/lib/cmake/opencv4) find_package(OpenCV REQUIRED) message(STATUS "OpenCV_DIR = ${OpenCV_DIR}") message(STATUS "OpenCV_INCLUDE_DIRS = ${OpenCV_INCLUDE_DIRS}") message(STATUS "OpenCV_LIBS = ${OpenCV_LIBS}") set(OpenVINO_DIR /Users/ygj/3lib/openvino_2023.2/runtime/cmake) set(OpenVINO_LIBs "/Users/ygj/3lib/openvino_2023.2/runtime/lib/arm64/Release/libopenvino.2320.dylib") set(CMAKE_CXX_FLAGS "${CMAKE_CXX_FLAGS} -std=c++11") include_directories( /Users/ygj/3lib/openvino_2023.2/runtime/include ${OpenCV_INCLUDE_DIRS} ) add_executable(test_openvino test_openvino.cpp ) target_link_libraries(test_openvino ${OpenVINO_LIBs} ${OpenCV_LIBS})
在這個 CMakeLists 文件中,需要同時配置 OpenCV 以及 OpenVINO 這兩個依賴庫,具體編譯以及配置方式參考 CMake 手冊。
接下來就可以項目編譯了,在終端中輸入一下命令,就可以進行項目配置了,輸出結果如下所示:
cmake .
接下來就是進行項目編譯,CMake 編譯后會生成 Makefile 文件,之后就可以運行 make 命令進行項目最后的編譯,然后就可以直接運行生成的項目文件,如下所示:
make ./test_openvino
上圖中展示了項目最后運行結果,可以看出,此處使用的模型輸入大小為[1,3,224,224],輸出大小為[1,1000],識別結果 Class ID=386,查看分類結果字典,圖片識別結果與圖片一致;模型的推理時間為:7ms。
5. 總結
該項目中,我們在 MacOS 14.2.1 系統(tǒng)、M2 芯片的 Macbook Air 電腦上,成功使用 OpenVINO C++ API 部署了 Yolov8 圖片分類深度學習模型,并詳細演示了 OpenVINO C++ API 在蘋果電腦上使用與配置流程,為使用 MacOS 系統(tǒng)的開發(fā)者提供了很好的范例與參考。
審核編輯:劉清
-
英特爾
+關注
關注
60文章
9747瀏覽量
170643 -
MacOS
+關注
關注
0文章
208瀏覽量
17411 -
深度學習
+關注
關注
73文章
5422瀏覽量
120590 -
OpenVINO
+關注
關注
0文章
73瀏覽量
139
原文標題:在 MacOS 上編譯 OpenVINO C++ 項目 | 開發(fā)者實戰(zhàn)
文章出處:【微信號:英特爾物聯(lián)網(wǎng),微信公眾號:英特爾物聯(lián)網(wǎng)】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論