精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

點(diǎn)云數(shù)據(jù)詳解——點(diǎn)云數(shù)據(jù)變?yōu)閳D像

新機(jī)器視覺(jué) ? 來(lái)源:CSDN ? 2023-03-27 11:08 ? 次閱讀


			

點(diǎn)云數(shù)據(jù)——The Point Cloud Data

點(diǎn)云數(shù)據(jù)應(yīng)表示為具有N行和至少3列的numpy數(shù)組。每行對(duì)應(yīng)于單個(gè)點(diǎn),其在空間(x,y,z)中的位置使用至少3個(gè)值表示。

554efc62-cbdd-11ed-bfe3-dac502259ad0.png

如果點(diǎn)云數(shù)據(jù)來(lái)自LIDAR傳感器,那么它可能具有每個(gè)點(diǎn)的附加值,例如“反射率”,其是在該位置中障礙物反射多少激光光束的量度。在這種情況下,點(diǎn)云數(shù)據(jù)可能是Nx4陣列。

圖像與點(diǎn)云坐標(biāo)——Image vs Point Cloud Coordinates

點(diǎn)云的軸與圖像中的軸具有完全不同的含義。下圖顯示了藍(lán)色的圖像軸和橙色的點(diǎn)云軸。

556d6d00-cbdd-11ed-bfe3-dac502259ad0.png

關(guān)于圖像需要注意的一些重要事項(xiàng):

  • 圖像中的坐標(biāo)值始終為正。

  • 原點(diǎn)位于左上角。

  • 坐標(biāo)是整數(shù)值。

有關(guān)點(diǎn)云坐標(biāo)的注意事項(xiàng):

  • 點(diǎn)云中的坐標(biāo)值可以是正數(shù)或負(fù)數(shù)。

  • 坐標(biāo)可以采用實(shí)數(shù)值。

  • 正x軸表示向前。

  • 正y軸表示左。

  • 正z軸表示向上。

創(chuàng)建點(diǎn)云數(shù)據(jù)的Birdseye視圖

鳥瞰圖的相關(guān)軸 為了創(chuàng)建鳥眼視圖圖像,來(lái)自點(diǎn)云數(shù)據(jù)的相關(guān)軸將是x和y軸。

55863c54-cbdd-11ed-bfe3-dac502259ad0.png

但是,正如我們從上圖所示,我們必須小心并考慮以下事項(xiàng): x和y軸意味著相反的事情。 x和y軸指向相反的方向。 您必須移動(dòng)值,以便(0,0)是圖像中可能的最小值。

1.限制矩形看——Limiting Rectangle to Look at

僅關(guān)注點(diǎn)云的特定區(qū)域通常很有用。因此,我們希望創(chuàng)建一個(gè)僅保留我們感興趣的區(qū)域內(nèi)的點(diǎn)的過(guò)濾器。 由于我們正在查看頂部的數(shù)據(jù),并且我們有興趣將其轉(zhuǎn)換為圖像,因此我將使用與圖像軸更加一致的方向。下面,我指定我想要集中在相對(duì)于原點(diǎn)的值的范圍。原點(diǎn)左側(cè)的任何內(nèi)容都將被視為負(fù)數(shù),而右側(cè)的任何內(nèi)容都將被視為正數(shù)。點(diǎn)云的x軸將被解釋為向前方向(這將是我們的鳥眼圖像的向上方向)。 下面的代碼將感興趣的矩形設(shè)置為在原點(diǎn)的兩側(cè)跨越10米,并在其前面20米處。

side_range=(-10, 10)     # left-most to right-most
fwd_range=(0, 20)       # back-most to forward-most

2.接下來(lái),我們創(chuàng)建一個(gè)過(guò)濾器,僅保留實(shí)際位于我們指定的矩形內(nèi)的點(diǎn)。

# EXTRACT THE POINTS FOR EACH AXIS
x_points = points[:, 0]
y_points = points[:, 1]
z_points = points[:, 2]


# FILTER - To return only indices of points within desired cube
# Three filters for: Front-to-back, side-to-side, and height ranges
# Note left side is positive y axis in LIDAR coordinates
f_filt = np.logical_and((x_points > fwd_range[0]), (x_points < fwd_range[1]))
s_filt = np.logical_and((y_points > -side_range[1]), (y_points < -side_range[0]))
filter = np.logical_and(f_filt, s_filt)
indices = np.argwhere(filter).flatten()


# KEEPERS
x_points = x_points[indices]
y_points = y_points[indices]
z_points = z_points[indices]

3.將點(diǎn)位置映射到像素位置——Mapping Point Positions to Pixel Positions

目前,我們有一堆帶有實(shí)數(shù)值的點(diǎn)。為了映射這些值,將這些值映射到整數(shù)位置值。我們可以天真地將所有x和y值整合到整數(shù)中,但我們最終可能會(huì)失去很多分辨率。例如,如果這些點(diǎn)的測(cè)量單位是以米為單位,則每個(gè)像素將表示點(diǎn)云中1x1米的矩形,我們將丟失任何小于此的細(xì)節(jié)。如果你有一個(gè)類似山景的點(diǎn)云,這可能沒(méi)問(wèn)題。但是如果你想能夠捕捉更精細(xì)的細(xì)節(jié)并識(shí)別人類,汽車,甚至更小的東西,那么這種方法就沒(méi)有用了。

但是,可以稍微修改上述方法,以便我們獲得所需的分辨率級(jí)別。在對(duì)整數(shù)進(jìn)行類型轉(zhuǎn)換之前,我們可以先擴(kuò)展數(shù)據(jù)。例如,如果測(cè)量單位是米,我們想要5厘米的分辨率,我們可以做如下的事情:

res = 0.05
# CONVERT TO PIXEL POSITION VALUES - Based on resolution
x_img = (-y_points / res).astype(np.int32)  # x axis is -y in LIDAR
y_img = (-x_points / res).astype(np.int32)  # y axis is -x in LIDAR

您會(huì)注意到x軸和y軸交換,方向反轉(zhuǎn),以便我們現(xiàn)在可以開始處理圖像坐標(biāo)。

更改坐標(biāo)原點(diǎn)——Shifting to New Origin

x和y數(shù)據(jù)仍未準(zhǔn)備好映射到圖像。我們可能仍然有負(fù)x和y值。所以我們需要將數(shù)據(jù)移位到(0,0)最小值。

# SHIFT PIXELS TO HAVE MINIMUM BE (0,0)
# floor and ceil used to prevent anything being rounded to below 0 after shift
x_img -= int(np.floor(side_range[0] / res))
y_img += int(np.ceil(fwd_range[1] / res))

現(xiàn)在數(shù)據(jù)值都為正值

>>> x_img.min()
7
>>> x_img.max()
199
>>> y_img.min()
1
>>> y_img.max()
199

像素值——Pixel Values

我們已經(jīng)使用點(diǎn)數(shù)據(jù)來(lái)指定圖像中的x和y位置。我們現(xiàn)在需要做的是指定我們想要用這些像素位置填充的值。一種可能性是用高度數(shù)據(jù)填充它。要做的兩件事
請(qǐng)記住:
像素值應(yīng)為整數(shù)。
像素值應(yīng)該是0-255范圍內(nèi)的值。

我們可以從數(shù)據(jù)中獲取最小和最大高度值,并重新縮放該范圍以適應(yīng)0-255的范圍。另一種方法,這里將使用的方法是設(shè)置我們想要集中的高度值范圍,并且高于或低于該范圍的任何內(nèi)容都被剪切為最小值和最大值。這很有用,因?yàn)樗试S我們從感興趣的區(qū)域獲得最大量的細(xì)節(jié)。

height_range = (-2, 0.5)  # bottom-most to upper-most


# CLIP HEIGHT VALUES - to between min and max heights
pixel_values = np.clip(a = z_points,
                           a_min=height_range[0],
                           a_max=height_range[1])

在下面的代碼中,我們將范圍設(shè)置為原點(diǎn)下方2米,高于原點(diǎn)半米。接下來(lái),我們將這些值重新縮放到0到255之間,并將類型轉(zhuǎn)換為整數(shù)。

def scale_to_255(a, min, max, dtype=np.uint8):
    """ Scales an array of values from specified min, max range to 0-255
        Optionally specify the data type of the output (default is uint8)
    """
    return (((a - min) / float(max - min)) * 255).astype(dtype)


# RESCALE THE HEIGHT VALUES - to be between the range 0-255
pixel_values  = scale_to_255(pixel_values, min=height_range[0], max=height_range[1])

創(chuàng)建圖像陣列——Create the Image Array

現(xiàn)在我們準(zhǔn)備實(shí)際創(chuàng)建圖像,我們只是初始化一個(gè)數(shù)組,其尺寸取決于我們?cè)诰匦沃兴璧闹捣秶臀覀冞x擇的分辨率。然后我們使用我們轉(zhuǎn)換為像素位置的x和y點(diǎn)值來(lái)指定數(shù)組中的索引,并為這些索引分配我們選擇的值作為前一小節(jié)中的像素值。

# INITIALIZE EMPTY ARRAY - of the dimensions we want
x_max = 1+int((side_range[1] - side_range[0])/res)
y_max = 1+int((fwd_range[1] - fwd_range[0])/res)
im = np.zeros([y_max, x_max], dtype=np.uint8)


# FILL PIXEL VALUES IN IMAGE ARRAY
im[y_img, x_img] = pixel_values

預(yù)覽——Viewing

目前,圖像存儲(chǔ)為numpy數(shù)組。如果我們希望將其可視化,我們可以將其轉(zhuǎn)換為PIL圖像,并查看它。

# CONVERT FROM NUMPY ARRAY TO A PIL IMAGE
from PIL import Image
im2 = Image.fromarray(im)
im2.show()

我們作為人類并不善于分辨灰色陰影之間的差異,因此它可以幫助我們使用光譜顏色映射來(lái)讓我們更容易分辨出價(jià)值差異。我們可以在matplotlib中做到這一點(diǎn)。(實(shí)際無(wú)法正常顯示)

import matplotlib.pyplot as plt
plt.imshow(im, cmap="spectral", vmin=0, vmax=255)
plt.show()

559bb93a-cbdd-11ed-bfe3-dac502259ad0.jpg

它實(shí)際上編碼與PIL繪制的圖像完全相同的信息量,因此機(jī)器學(xué)習(xí)學(xué)習(xí)算法例如仍然能夠區(qū)分高度差異,即使我們?nèi)祟惒荒芊浅G宄乜吹讲町悺?/span>

   import cv2
   #通過(guò)cv2顯示
    cv2.imshow("im",im)
    cv2.waitKey()
    cv2.destroyAllWindows()

55b3f68a-cbdd-11ed-bfe3-dac502259ad0.png

完整代碼——Complete Code

為方便起見,我將上面的所有代碼放在一個(gè)函數(shù)中,它將鳥瞰視圖作為一個(gè)numpy數(shù)組返回。然后,您可以選擇使用您喜歡的任何方法對(duì)其進(jìn)行可視化,或者將numpy數(shù)組插入到機(jī)器學(xué)習(xí)算法中。

import numpy as np


# ==============================================================================
#                                                                   SCALE_TO_255
# ==============================================================================
def scale_to_255(a, min, max, dtype=np.uint8):
    """ Scales an array of values from specified min, max range to 0-255
        Optionally specify the data type of the output (default is uint8)
    """
    return (((a - min) / float(max - min)) * 255).astype(dtype)


# ==============================================================================
#                                                         POINT_CLOUD_2_BIRDSEYE
# ==============================================================================
def point_cloud_2_birdseye(points,
                           res=0.1,
                           side_range=(-10., 10.),  # left-most to right-most
                           fwd_range = (-10., 10.), # back-most to forward-most
                           height_range=(-2., 2.),  # bottom-most to upper-most
                           ):
    """ Creates an 2D birds eye view representation of the point cloud data.


    Args:
        points:     (numpy array)
                    N rows of points data
                    Each point should be specified by at least 3 elements x,y,z
        res:        (float)
                    Desired resolution in metres to use. Each output pixel will
                    represent an square region res x res in size.
        side_range: (tuple of two floats)
                    (-left, right) in metres
                    left and right limits of rectangle to look at.
        fwd_range:  (tuple of two floats)
                    (-behind, front) in metres
                    back and front limits of rectangle to look at.
        height_range: (tuple of two floats)
                    (min, max) heights (in metres) relative to the origin.
                    All height values will be clipped to this min and max value,
                    such that anything below min will be truncated to min, and
                    the same for values above max.
    Returns:
        2D numpy array representing an image of the birds eye view.
    """
    # EXTRACT THE POINTS FOR EACH AXIS
    x_points = points[:, 0]
    y_points = points[:, 1]
    z_points = points[:, 2]
    # FILTER - To return only indices of points within desired cube
    # Three filters for: Front-to-back, side-to-side, and height ranges
    # Note left side is positive y axis in LIDAR coordinates
    f_filt = np.logical_and((x_points > fwd_range[0]), (x_points < fwd_range[1]))
    s_filt = np.logical_and((y_points > -side_range[1]), (y_points < -side_range[0]))
    filter = np.logical_and(f_filt, s_filt)
    indices = np.argwhere(filter).flatten()
    # KEEPERS
    x_points = x_points[indices]
    y_points = y_points[indices]
    z_points = z_points[indices]
    # CONVERT TO PIXEL POSITION VALUES - Based on resolution
    x_img = (-y_points / res).astype(np.int32)  # x axis is -y in LIDAR
    y_img = (-x_points / res).astype(np.int32)  # y axis is -x in LIDAR
    # SHIFT PIXELS TO HAVE MINIMUM BE (0,0)
    # floor & ceil used to prevent anything being rounded to below 0 after shift
    x_img -= int(np.floor(side_range[0] / res))
    y_img += int(np.ceil(fwd_range[1] / res))
    # CLIP HEIGHT VALUES - to between min and max heights
    pixel_values = np.clip(a=z_points,
                           a_min=height_range[0],
                           a_max=height_range[1])
    # RESCALE THE HEIGHT VALUES - to be between the range 0-255
    pixel_values = scale_to_255(pixel_values,
                                min=height_range[0],
                                max=height_range[1])
    # INITIALIZE EMPTY ARRAY - of the dimensions we want
    x_max = 1 + int((side_range[1] - side_range[0]) / res)
    y_max = 1 + int((fwd_range[1] - fwd_range[0]) / res)
    im = np.zeros([y_max, x_max], dtype=np.uint8)
    # FILL PIXEL VALUES IN IMAGE ARRAY
    im[y_img, x_img] = pixel_values


    return im

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2548

    文章

    50698

    瀏覽量

    752051
  • 點(diǎn)云數(shù)據(jù)

    關(guān)注

    0

    文章

    13

    瀏覽量

    1504

原文標(biāo)題:點(diǎn)云數(shù)據(jù)詳解——點(diǎn)云數(shù)據(jù)變?yōu)閳D像

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    dlp4500 點(diǎn)數(shù)據(jù)

    大家好: 大神們,指導(dǎo)下我, 我在用dlp4500 獲取三維數(shù)據(jù),步驟是按照 官方的手冊(cè)dlpu019a.pdf,在3.8 Calibration Verification這一步驟,驗(yàn)證標(biāo)定的效果,沒(méi)有達(dá)到官方給出的效果; 我獲取的點(diǎn)
    發(fā)表于 06-21 11:06

    dlp4500點(diǎn)數(shù)據(jù)

    dlp4500 點(diǎn)數(shù)據(jù)
    發(fā)表于 08-29 17:39

    從D435獲得完整的點(diǎn)數(shù)據(jù)集不完整

    800000-900000點(diǎn)左右。假設(shè)數(shù)據(jù)是從圖像生成的,則預(yù)期完整的點(diǎn)具有結(jié)構(gòu) - 即,理想地,它將根據(jù)像素位置的行或列進(jìn)行排序。一旦某
    發(fā)表于 10-30 11:27

    點(diǎn)格式主要有哪幾種

    由于點(diǎn)數(shù)據(jù)的量非常大,cesium在顯示海量數(shù)據(jù)的時(shí)候就非常的吃力,因此需要用到3dtiles。3D Tiles=lod+gltf,專門為大量數(shù)據(jù)
    發(fā)表于 07-12 07:48

    一種多幅點(diǎn)數(shù)據(jù)與紋理序列自動(dòng)配準(zhǔn)方法

    方法將點(diǎn)數(shù)據(jù)生成強(qiáng)度圖像,通過(guò)特征匹配得到紋理影像與強(qiáng)度圖像間的匹配關(guān)系,利用RANSAC算法進(jìn)行匹配關(guān)系優(yōu)化,確定每個(gè)紋理影像與強(qiáng)度
    發(fā)表于 03-18 10:42 ?5次下載
    一種多幅<b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b><b class='flag-5'>數(shù)據(jù)</b>與紋理序列自動(dòng)配準(zhǔn)方法

    創(chuàng)建點(diǎn)數(shù)據(jù)的Birdseye視圖

    如果點(diǎn)數(shù)據(jù)來(lái)自LIDAR傳感器,那么它可能具有每個(gè)點(diǎn)的附加值,例如“反射率”,其是在該位置中障礙物反射多少激光光束的量度。在這種情況下,點(diǎn)
    的頭像 發(fā)表于 04-01 14:39 ?1755次閱讀
    創(chuàng)建<b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b><b class='flag-5'>數(shù)據(jù)</b>的Birdseye視圖

    點(diǎn)數(shù)據(jù)——The Point Cloud Data

    如果點(diǎn)數(shù)據(jù)來(lái)自LIDAR傳感器,那么它可能具有每個(gè)點(diǎn)的附加值,例如“反射率”,其是在該位置中障礙物反射多少激光光束的量度。在這種情況下,點(diǎn)
    的頭像 發(fā)表于 04-18 10:23 ?6376次閱讀
    <b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b><b class='flag-5'>數(shù)據(jù)</b>——The Point Cloud Data

    圖像點(diǎn)是如何拼接在一起的?

    理解好圖像點(diǎn)拼接,需要從相機(jī)的模型說(shuō)起。
    的頭像 發(fā)表于 07-04 17:05 ?5445次閱讀
    <b class='flag-5'>圖像</b>的<b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>是如何拼接在一起的?

    點(diǎn)的概念以及與三維圖像的關(guān)系

    點(diǎn)概念 點(diǎn)與三維圖像的關(guān)系:三維圖像是一種特殊的信息表達(dá)形式,其特征是表達(dá)的空間中三個(gè)維度的
    的頭像 發(fā)表于 08-17 09:18 ?7152次閱讀
    <b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>的概念以及與三維<b class='flag-5'>圖像</b>的關(guān)系

    十大點(diǎn)數(shù)據(jù)處理技術(shù)和點(diǎn)應(yīng)用匯總

    在二維圖像上,有Harris、SIFT、SURF、KAZE這樣的關(guān)鍵點(diǎn)提取算法,這種特征點(diǎn)的思想可以推廣到三維空間。從技術(shù)上來(lái)說(shuō),關(guān)鍵點(diǎn)的數(shù)量相比于原始點(diǎn)
    的頭像 發(fā)表于 01-12 11:55 ?3805次閱讀

    一文詳解點(diǎn)及三維圖像處理技術(shù)

    點(diǎn)與三維圖像的關(guān)系:三維圖像是一種特殊的信息表達(dá)形式,其特征是表達(dá)的空間中三個(gè)維度的數(shù)據(jù),表現(xiàn)形式包括:深度圖(以灰度表達(dá)物體與相機(jī)的距離
    的頭像 發(fā)表于 03-31 16:07 ?2876次閱讀

    自動(dòng)駕駛點(diǎn)數(shù)據(jù)標(biāo)注的步驟有哪些

    以下幾個(gè)步驟: 數(shù)據(jù)預(yù)處理:在進(jìn)行點(diǎn)數(shù)據(jù)標(biāo)注之前,需要對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,如去除噪聲、調(diào)整圖像
    的頭像 發(fā)表于 04-21 17:50 ?2749次閱讀

    自動(dòng)駕駛技術(shù)中的點(diǎn)數(shù)據(jù)標(biāo)注步驟和注意事項(xiàng)

    等方面,詳細(xì)介紹點(diǎn)數(shù)據(jù)標(biāo)注的步驟和注意事項(xiàng)。 一、數(shù)據(jù)預(yù)處理 在進(jìn)行點(diǎn)
    的頭像 發(fā)表于 04-23 18:11 ?5163次閱讀

    點(diǎn)標(biāo)注簡(jiǎn)介及其應(yīng)用

    點(diǎn)標(biāo)注是一種將三維空間中的點(diǎn)數(shù)據(jù)標(biāo)注出來(lái)的過(guò)程,即將點(diǎn)
    的頭像 發(fā)表于 05-26 17:53 ?5766次閱讀

    點(diǎn)數(shù)據(jù)處理技術(shù)流程

    隨著機(jī)載激光雷達(dá)技術(shù)的日益發(fā)展,其在測(cè)繪行業(yè)的應(yīng)用越來(lái)越成熟,尤其在大比例地形圖的應(yīng)用中,具有無(wú)可替代的作用。本文將完整復(fù)盤點(diǎn)數(shù)據(jù)處理技術(shù)流程,以高植被山區(qū)地區(qū)為例。 什么是點(diǎn)
    的頭像 發(fā)表于 06-25 11:30 ?2538次閱讀