精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TDengine+OpenVINO+AIxBoard助力時序數(shù)據(jù)分類

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) ? 2023-10-27 11:08 ? 次閱讀

時間序列數(shù)據(jù)分析工業(yè),能源,醫(yī)療,交通,金融,零售等多個領(lǐng)域都有廣泛應用。其中時間序列數(shù)據(jù)分類是分析時序數(shù)據(jù)的常見任務之一。本文將通過一個具體的案例,介紹 Intel 團隊如何使用 TDengine 作為基礎(chǔ)軟件存儲實驗數(shù)據(jù),并通過 TDengine 高效的查詢能力在 OpenVINO 部署深度學習模型,最終在 AIxBoard 開發(fā)板上實時運行分類任務。

01模型簡介

近年來機器學習和深度學習在時序數(shù)據(jù)分類任務中取得了顯著進展,HIVE-COTE 和 InceptionTime 模型都取得了不錯的成果。相比基于 Nearest Neighbor 和 DTW 算法的 HIVE-COTE 模型,基于一維卷積 (Conv1D) 的 InceptionTime 模型成果更為顯著,其在極大降低計算復雜度的基礎(chǔ)上,還達到了與 HIVE-COTE 相當?shù)姆诸惥取?/p>

如下圖所示,Inception 模塊是 InceptionTime 模型的基本組成模塊,由多個一維卷積 (Conv1D) 操作堆疊,并于殘差連接而成。

2ef68990-7475-11ee-939d-92fbcf53809c.png

完整的 InceptionTime 模型由多個 Inception 模塊連接而成。 2f0179c2-7475-11ee-939d-92fbcf53809c.jpg 關(guān)于 InceptionTime 的更多細節(jié)請參考論文:https://arxiv.org/abs/1909.04939。

02數(shù)據(jù)集

本文采用的數(shù)據(jù)集來自http://timeseriesclassification.com/TSC.zip,由 128 個時間序列分類任務組成。其中的 Wafer 數(shù)據(jù)集包含 1000 條訓練數(shù)據(jù)和和 6164 條測試數(shù)據(jù),每條數(shù)據(jù)均包含標簽值和長度 152 的時間序列數(shù)據(jù)。數(shù)據(jù)通過程序提前寫入到 TDengine 中。

這里描述的時序數(shù)據(jù)是晶片生成過程中同一個工具通過單個傳感器記錄的時間序列數(shù)據(jù)。下圖展示了正常 (class 1) 和異常 (class 0) 兩種標簽對應的時序數(shù)據(jù)示例。 2f1c5d96-7475-11ee-939d-92fbcf53809c.png

不難看出,這是一個標準的監(jiān)督學習分類任務。我們希望找到一個模型,在每輸入長度 152 的時序數(shù)據(jù)時,模型輸出 0 或 1,以此判斷輸入時序數(shù)據(jù)對應的晶片在生成過程是否存在異常。

03模型訓練

本文中我們將使用 Wafer 數(shù)據(jù)集訓練一個 InceptionTime 模型。訓練得到的模型可以根據(jù)晶片生產(chǎn)過程中傳感器記錄的時序數(shù)據(jù),判斷某個晶片的生產(chǎn)過程是否存在異常。

InceptionTime 的作者開源了基于 tensorflow.keras 的實現(xiàn),本文的模型代碼基于 InceptionTime 開源版本并集成 TDengine 支持 https://github.com/sangshuduo/InceptionTime。

首先加載 Python 庫。

from os import path
import numpy as np
from sklearn import preprocessing


from tensorflow import keras
from tensorflow.keras.layers import (
    Activation, Add, BatchNormalization, Concatenate,
    Conv1D, Dense, Input, GlobalAveragePooling1D, MaxPool1D
)


from sqlalchemy import create_engine, text
然后使用 TDengine 的 SQLAlchemy 驅(qū)動加載 Wafer 數(shù)據(jù)集并進行預處理。
def readucr(conn, dbName, tableName):
    data = pd.read_sql(
        text(
            "select * from " + dbName + "." + tableName
        ),
        conn,
    )
    y = data[:, 0]
    x = data[:, 1:]
    return x, y


def load_data(db):
    engine = create_engine("taos://root:taosdata@localhost:6030/" + db)
    try:
        conn = engine.connect()
    except Exception as e:
        print(e)
        exit(1)


    if conn is not None:
        print("Connected to the TDengine ...")
    else:
        print("Failed to connect to taos")
        exit(1)


    x_train, y_train = readucr(conn, db + '_TRAIN.tsv')
    x_test, y_test = readucr(conn, db + '_TEST.tsv')
    n_classes = len(np.unique(y_train))
    enc = preprocessing.OneHotEncoder()
    y = np.concatenate((y_train, y_test), axis=0).reshape(-1,1)
    enc.fit(y)
    y_tr = enc.transform(y_train.reshape(-1,1)).toarray()
    y_te = enc.transform(y_test.reshape(-1,1)).toarray()
    x_tr, x_te = map(lambda x: x.reshape(x.shape[0], x.shape[1], 1), [x_train, x_test])
    return x_tr, y_tr, x_te, y_te, n_classes


x_tr, y_tr, x_te, y_te, n_classes = load_data('Wafer')

再使用 tensorflow.keras 實現(xiàn) IncetionTime,并創(chuàng)建模型。

def inception_module(input_tensor, filters, kernel_size, bottleneck_size,
                     activation='relu', use_bottleneck=True):
    if use_bottleneck and int(input_tensor.shape[-1]) > 1:
        input_inception = Conv1D(filters=bottleneck_size, kernel_size=1, padding='same',
                                 activation=activation, use_bias=False)(input_tensor)
    else:
        input_inception = input_tensor
    kernel_size_s = [kernel_size // (2 ** i) for i in range(3)] # [40, 20, 10]
    conv_list = []
    for i in range(len(kernel_size_s)):
        conv = Conv1D(filters=filters, kernel_size=kernel_size_s[i],
                      strides=1, padding='same', activation=activation,
                      use_bias=False)(input_inception)
        conv_list.append(conv)
    max_pool = MaxPool1D(pool_size=3, strides=1, padding='same')(input_tensor)
    conv_6 = Conv1D(filters=filters, kernel_size=1, padding='same',
                      activation=activation, use_bias=False)(max_pool)
    conv_list.append(conv_6)
    x = Concatenate(axis=2)(conv_list)
    x = BatchNormalization()(x)
    x = Activation(activation='relu')(x)
    return x


def shortcut_layer(input_tensor, output_tensor):
    y = Conv1D(filters=int(output_tensor.shape[-1]), kernel_size=1,
               padding='same', use_bias=False)(input_tensor)
    y = BatchNormalization()(y)
    x = Add()([y, output_tensor])
    x = Activation(activation='relu')(x)
    return x


def build_model(input_shape, n_classes, depth=6,
                filters=32, kernel_size=40, bottleneck_size=32,
                use_residual=True):
    input_layer = Input(input_shape)
    x = input_layer
    input_res = input_layer
    for d in range(depth):
        x = inception_module(x, filters, kernel_size, bottleneck_size)
        if use_residual and d % 3 == 2:
            x = shortcut_layer(input_res, x)
            input_res = x
    gap_layer = GlobalAveragePooling1D()(x)
    output_layer = Dense(n_classes, activation="softmax")(gap_layer)
    model = keras.Model(input_layer, output_layer)
    return model


model = build_model(x_tr.shape[1:], n_classes)


model.compile(
    optimizer='adam',
    loss='categorical_crossentropy',
    metrics=['accuracy']
)

訓練模型:

ckpt_path = path.sep.join(['.', 'models', 'inception_wafer.h5'])


callbacks = [
    keras.callbacks.ReduceLROnPlateau(
        monitor='val_loss', factor=0.5, patience=20, min_lr=0.0001
    ),
    keras.callbacks.EarlyStopping(monitor='val_loss', patience=20, verbose=1),
    keras.callbacks.ModelCheckpoint(
        filepath=ckpt_path, monitor='val_loss', save_best_only=True
    )
]


batch_size = 32
epochs = 500


history = model.fit(x_tr, y_tr, batch_size, epochs, verbose='auto', shuffle=True, validation_split=0.2, callbacks=callbacks)
簡單顯示一下訓練過程:
metric = 'accuracy'
plt.figure(figsize=(10, 5))
plt.plot(history.history[metric])
plt.plot(history.history['val_'+metric])
plt.title("model " + metric)
plt.ylabel(metric, fontsize='large')
plt.xlabel('epoch', fontsize='large')
plt.legend(["train", "val"], loc="best")
plt.show()
plt.close()
2f2b5b7a-7475-11ee-939d-92fbcf53809c.png

使用測試數(shù)據(jù)驗證模型的推理精度。

classifier = keras.models.load_model(ckpt_path)
test_loss, test_acc = classifier.evaluate(x_te, y_te)
print("Test accuracy: ", test_acc)
print("Test loss: ", test_loss)
193/193 [==============================] - 2s 11ms/step - loss: 0.0142 - accuracy: 0.9958
Test accuracy:  0.9957819581031799
Test loss:  0.014155667275190353

我們的模型在 Wafer 測試數(shù)據(jù)上取得了 99.58% 的精度。

04模型轉(zhuǎn)換

為了達成使用 OpenVINO Runtime 進行推理計算的目的,我們需要將 tensorflow 模型轉(zhuǎn)換為 OpenVINO IR 格式。

from pathlib import Path
from openvino.tools import mo
from tensorflow import keras


model = keras.models.load_model('models/inception_wafer.h5')


model_path = Path('models/inception.0_float')
model.save(model_path)


model_dir = Path("ov")
model_dir.mkdir(exist_ok=True)
ir_path = Path("ov/inception.xml")


input_shape = [1, 152, 1]


if not ir_path.exists():
    print("Exporting TensorFlow model to IR...")
    ov_model = mo.convert_model(saved_model_dir=model_path, input_shape=input_shape, compress_to_fp16=True)
    serialize(ov_model, ir_path)
else:
    print(f"IR model {ir_path} already exists.")

轉(zhuǎn)換完成后,生成的 IR 格式模型被存儲為模型定義文件 inception.xml 和二進制文件 inception.bin。

05模型部署

接下來我們在 AIxBoard 開發(fā)板上部署剛剛訓練的 IncetpionTime 模型。首先將 inception.bin、inception.xml 和 Wafer_TEST.tsv 幾個文件復制到 AIxBoard 板上。

加載 Python 庫。

from pathlib import Path
import numpy as np
from openvino.runtime import Core, serialize

使用 OpenVINO 運行 Inception 模型。

ir_path = Path("inception.xml")
core = Core()
model = core.read_model(ir_path)
import ipywidgets as widgets


device = widgets.Dropdown(
    options=core.available_devices + ["AUTO"],
    value='AUTO',
    description='Device:',
    disabled=False
)


device
def readucr(filename, delimiter='	'):
    data = np.loadtxt(filename, delimiter=delimiter)
    y = data[:, 0]
    x = data[:, 1:]
    y[y==-1] = 0
    return np.expand_dims(x, axis=2), y


X, y = readucr('Wafer_TEST.tsv')


compiled_model = core.compile_model(model, device_name=device.value)


input_key = compiled_model.input(0)
output_key = compiled_model.output(0)
network_input_shape = input_key.shape


counter = 0
for idx, i in enumerate(X):
    i = np.expand_dims(i, axis=0)
    r = compiled_model(i)[output_key]
    counter += 1 if r.argmax() == y[idx] else 0


print('{:.6f}'.format(counter/len(y)))
0.995782

使用 OpenVINO 推理的精度跟 tensorflow 模型推理精度一致,同樣達到了 99.58%。我們在模型轉(zhuǎn)換時將原模型數(shù)據(jù)格式壓縮為 FP16,這一操作并沒有導致精度下降。

性能測試

使用 OpenVINO 自帶的 benchmark 工具可以輕松地在 AIxBoard 上進行性能測試。

benchmark_app -m inception.xml -hint latency -d CPU
[ INFO ] First inference took 8.59 ms
[Step 11/11] Dumping statistics report
[ INFO ] Execution Devices:['CPU']
[ INFO ] Count:            8683 iterations
[ INFO ] Duration:         60012.27 ms
[ INFO ] Latency:
[ INFO ]    Median:        6.44 ms
[ INFO ]    Average:       6.81 ms
[ INFO ]    Min:           6.34 ms
[ INFO ]    Max:           37.13 ms
[ INFO ] Throughput:   144.69 FPS
benchmark_app -m inception.xml -hint latency -d GPU
[ INFO ] First inference took 10.58 ms
[Step 11/11] Dumping statistics report
[ INFO ] Execution Devices:['GPU.0']
[ INFO ] Count:            7151 iterations
[ INFO ] Duration:         60026.34 ms
[ INFO ] Latency:
[ INFO ]    Median:        7.50 ms
[ INFO ]    Average:       8.23 ms
[ INFO ]    Min:           7.04 ms
[ INFO ]    Max:           21.78 ms
[ INFO ] Throughput:   119.13 FPS
從上面結(jié)果可以看出,使用 AIxBoard 的 CPU 運行 InceptionTime 模型推理,平均時長為 6.81ms。使用集成 GPU 推理,平均時長為 8.23ms。

06總結(jié)

本文介紹了如何利用 TDengine 支持時間序列數(shù)據(jù)的底層存儲,以及如何通過分類模型 InceptionTime 在 UCR 時序數(shù)據(jù)集的 Wafer 分類任務上進行訓練。最后,我們使用 OpenVINO 將該模型部署在 AIxBoard 開發(fā)板上,實現(xiàn)了高效的實時時序數(shù)據(jù)分類任務。希望本文的內(nèi)容能夠幫助大家在項目中利用 TDengine、OpenVINO 和 AIxBoard 來解決更多的時間序列分析問題。

01關(guān)于 AIxBoard

英特爾開發(fā)者套件 AIxBoard(愛克斯開發(fā)板)是專為支持入門級邊緣 AI 應用程序和設備而設計,能夠滿足人工智能學習、開發(fā)、實訓等應用場景。該開發(fā)板是類樹莓派的 x86 主機,可支持 Linux Ubuntu 及完整版 Windows 操作系統(tǒng),板載一顆英特爾 4 核處理器,最高運行頻率可達 2.9 GHz,且內(nèi)置核顯(iGPU),板載 64GB eMMC 存儲及 LPDDR4x 2933MHz(4GB/6GB/8GB),內(nèi)置藍牙Wi-Fi 模組,支持 USB 3.0、HDMI 視頻輸出、3.5mm 音頻接口,1000Mbps 以太網(wǎng)口,完全可把它作為一臺 mini 小電腦來看待,且其可集成一塊 Arduino Leonardo 單片機,可外拓各種傳感器模塊。此外,其接口與 Jetson Nano 載板兼容,GPIO 與樹莓派兼容,能夠最大限度地復用樹莓派、Jetson Nano 等生態(tài)資源,無論是攝像頭物體識別,3D 打印,還是 CNC 實時插補控制都能穩(wěn)定運行,不僅可作為邊緣計算引擎用于人工智能產(chǎn)品驗證、開發(fā),也可作為域控核心用于機器人產(chǎn)品開發(fā)。

02關(guān)于 TDengine

TDengine 核心是一款高性能、集群開源、云原生的時序數(shù)據(jù)庫(Time Series Database,TSDB),專為物聯(lián)網(wǎng)、工業(yè)互聯(lián)網(wǎng)、電力、IT 運維等場景設計并優(yōu)化,具有極強的彈性伸縮能力。同時它還帶有內(nèi)建的緩存、流式計算、數(shù)據(jù)訂閱等系統(tǒng)功能,能大幅減少系統(tǒng)設計的復雜度,降低研發(fā)和運營成本,是一個高性能、分布式的物聯(lián)網(wǎng)、工業(yè)大數(shù)據(jù)平臺。當前 TDengine 主要提供兩大版本,分別是支持私有化部署的 TDengine Enterprise 以及全托管的物聯(lián)網(wǎng)、工業(yè)互聯(lián)網(wǎng)云服務平臺 TDengine Cloud,兩者在開源時序數(shù)據(jù)庫 TDengine OSS 的功能基礎(chǔ)上有更多加強,用戶可根據(jù)自身業(yè)務體量和需求進行版本選擇。

03關(guān)于作者

馮偉,英特爾軟件架構(gòu)師,16 年軟件研發(fā)經(jīng)驗,涵蓋瀏覽器、計算機視覺、虛擬機等多個領(lǐng)域。2015 年加入英特爾,近年來專注于邊緣計算、深度學習模型落地,以及時序數(shù)據(jù)分析等方向。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    60

    文章

    9900

    瀏覽量

    171550
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8382

    瀏覽量

    132444
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5493

    瀏覽量

    120999
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    90

    瀏覽量

    182

原文標題:TDengine + OpenVINO + AIxBoard,助力時序數(shù)據(jù)分類

文章出處:【微信號:英特爾物聯(lián)網(wǎng),微信公眾號:英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于OpenVINO?和AIxBoard的智能安檢盒子設計

    公共安全問題日益凸顯,傳統(tǒng)安檢手段面臨挑戰(zhàn)。為提高安檢效率和保障公共安全,基于 OpenVINO? 和 AIxBoard 的智能安檢盒子應運而生。
    的頭像 發(fā)表于 01-18 17:31 ?799次閱讀
    基于<b class='flag-5'>OpenVINO</b>?和<b class='flag-5'>AIxBoard</b>的智能安檢盒子設計

    時序數(shù)據(jù)庫HiTSDB的深度解析!

    深度解讀!時序數(shù)據(jù)庫HiTSDB:分布式流式聚合引擎
    發(fā)表于 07-22 13:22

    多片段時序數(shù)據(jù)建模預測實踐資料分享

    時序數(shù)據(jù)建模分析已經(jīng)有很多相關(guān)的應用了,在這個領(lǐng)域里面LSTM網(wǎng)絡絕對是占據(jù)著非常重要的作用,自從LSTM網(wǎng)絡提出以來,陸陸續(xù)續(xù)又出現(xiàn)了很多相關(guān)的變種網(wǎng)絡,傳統(tǒng)的時序建模工作主要是基于一個指定的時序數(shù)據(jù)
    發(fā)表于 06-30 07:52

    關(guān)于時序數(shù)據(jù)庫的內(nèi)容

    簡介: 這是一篇無法一口氣讀完的、文字過萬[正文字數(shù)14390]的長文,這是一個無法中途不上廁所就看完的、關(guān)于時序數(shù)據(jù)庫的視頻[時長111分鐘]分享的文字整理..大家好,很開心能夠和大家一起交流時序數(shù)據(jù)
    發(fā)表于 07-12 08:00

    什么是時序數(shù)據(jù)庫?

    本文根據(jù)演講視頻以及PPT整理而成。本文將主要圍繞以下四個方面進行分享:時序數(shù)據(jù)時序數(shù)據(jù)時序數(shù)據(jù)庫的演變時序數(shù)據(jù)庫對比總結(jié)一、時序數(shù)據(jù)
    發(fā)表于 07-12 08:35

    TDengine簡介

    吸取眾多傳統(tǒng)關(guān)系型數(shù)據(jù)庫、NoSQL數(shù)據(jù)庫、流式計算引擎、消息隊列等軟件的優(yōu)點之后自主開發(fā)的產(chǎn)品,在時序空間大數(shù)據(jù)處理上,有著自己獨到的優(yōu)勢。TDe
    發(fā)表于 08-31 08:50

    TableStore時序數(shù)據(jù)存儲 - 架構(gòu)篇

    摘要:?背景 隨著近幾年物聯(lián)網(wǎng)的發(fā)展,時序數(shù)據(jù)迎來了一個不小的爆發(fā)。從DB-Engines上近兩年的數(shù)據(jù)庫類型增長趨勢來看,時序數(shù)據(jù)庫的增長是非常迅猛的。在去年我花了比較長的時間去了解了一些開源
    發(fā)表于 08-08 16:17 ?572次閱讀
    TableStore<b class='flag-5'>時序數(shù)據(jù)</b>存儲 - 架構(gòu)篇

    時序數(shù)據(jù)庫的前世今生

    ? 時序數(shù)據(jù)庫忽然火了起來。Facebook開源了beringei時序數(shù)據(jù)庫,基于PostgreSQL打造的時序數(shù)據(jù)庫TimeScaleDB也開源了。時序數(shù)據(jù)庫作為物聯(lián)網(wǎng)方向一個非常重
    的頭像 發(fā)表于 12-17 17:51 ?3566次閱讀

    華為時序數(shù)據(jù)庫為智慧健康養(yǎng)老行業(yè)貢獻應用之道

    隨著 IoT 技術(shù)的快速發(fā)展,物聯(lián)網(wǎng)設備產(chǎn)生的數(shù)據(jù)呈爆炸式增長。這些數(shù)據(jù)通常隨時間產(chǎn)生,稱之為時序數(shù)據(jù)。這樣的一種專門用于管理時序數(shù)據(jù)數(shù)據(jù)
    的頭像 發(fā)表于 11-07 15:10 ?5860次閱讀

    華為PB級時序數(shù)據(jù)庫Gauss DB,助力海量數(shù)據(jù)處理

    ??近年來,時序數(shù)據(jù)的應用更為廣泛,包括物聯(lián)網(wǎng)、金融領(lǐng)域、監(jiān)控領(lǐng)域、醫(yī)學領(lǐng)域、農(nóng)業(yè)生產(chǎn)領(lǐng)域等各方面,都在大量使用時序數(shù)據(jù),通過數(shù)據(jù)來研究對象的趨勢性、規(guī)律性、異常性;并且在 5G 與人工智能的浪潮下
    的頭像 發(fā)表于 10-15 19:15 ?1098次閱讀
    華為PB級<b class='flag-5'>時序數(shù)據(jù)</b>庫Gauss DB,<b class='flag-5'>助力</b>海量<b class='flag-5'>數(shù)據(jù)</b>處理

    物聯(lián)網(wǎng)場景海量時序數(shù)據(jù)存儲與處理的關(guān)鍵技術(shù)

    時序數(shù)據(jù)是隨時間不斷產(chǎn)生的一系列數(shù)據(jù),例如持續(xù)監(jiān)控的氣象變化數(shù)據(jù)、股市交易記錄、應用監(jiān)控數(shù)據(jù)等,通常一個時序數(shù)據(jù)點可以由
    發(fā)表于 12-27 11:58 ?2260次閱讀

    涂鴉推出NekoDB時序數(shù)據(jù)庫,助力全球客戶實現(xiàn)低成本部署

    隨著IoT技術(shù)逐漸成熟,眾多設備產(chǎn)出的數(shù)據(jù)呈現(xiàn)指數(shù)級增長。企業(yè)亟需用行之有效的方式管理海量時序數(shù)據(jù)。由此,各類時序數(shù)據(jù)庫開始成為市場寵兒。與市場需求相悖的是,時序數(shù)據(jù)庫水平參差不齊??v
    的頭像 發(fā)表于 07-24 10:08 ?2067次閱讀
    涂鴉推出NekoDB<b class='flag-5'>時序數(shù)據(jù)</b>庫,<b class='flag-5'>助力</b>全球客戶實現(xiàn)低成本部署

    時序數(shù)據(jù)TDengine 官網(wǎng)全新上線,四大亮點搶先看

    近日,高性能、分布式的物聯(lián)網(wǎng)、工業(yè)大數(shù)據(jù)平臺 TDengine 在精心籌備后進行了官網(wǎng)的全新改版升級。新官網(wǎng)進行了非常全面的改造,板塊劃分更加具象、功能分區(qū)也更加明確、整體視覺顯著提升,伴隨著這些
    的頭像 發(fā)表于 09-04 17:00 ?2041次閱讀
    <b class='flag-5'>時序數(shù)據(jù)</b>庫 <b class='flag-5'>TDengine</b> 官網(wǎng)全新上線,四大亮點搶先看

    基于OpenVINOAIxBoard的智能安檢盒子設計

    公共安全問題日益凸顯,傳統(tǒng)安檢手段面臨挑戰(zhàn)。為提高安檢效率和保障公共安全,基于 OpenVINOAIxBoard 的智能安檢盒子應運而生。利用深度學習模型和 X 光圖像處理技術(shù),該設備能夠?qū)崟r識別危險物品并發(fā)出警報,為公共場所、機場等場景提供高效、準確的安檢解決方案
    的頭像 發(fā)表于 12-25 11:14 ?512次閱讀
    基于<b class='flag-5'>OpenVINO</b>和<b class='flag-5'>AIxBoard</b>的智能安檢盒子設計

    時序數(shù)據(jù)庫是什么?時序數(shù)據(jù)庫的特點

    時序數(shù)據(jù)庫是一種在處理時間序列數(shù)據(jù)方面具有高效和專門化能力的數(shù)據(jù)庫。它主要用于存儲和處理時間序列數(shù)據(jù),比如傳感器數(shù)據(jù)、監(jiān)控
    的頭像 發(fā)表于 04-26 16:02 ?600次閱讀