基于Hadoop在超像素分割算法中應用
大小:1.28 MB 人氣: 2017-12-09 需要積分:1
針對高分辨率圖像像素分割時間復雜度高的問題,提出了超像素分割算法。采用超像素代替原始的像素作為分割的處理基元,將Hadoop分布式的特點與超像素的分塊相結合。在分片過程中提出了基于多任務的靜態與動態結合的適應性算法,使得Hadoop分布式文件系統(HDFS)的分塊與任務分發的基元解耦;在每一個Map節點任務中,基于超像素分塊的邊界性對超像素的形成在距離和梯度上進行約束,提出了基于分水嶺的并行化分割算法。在Shuffle過程的超像素塊間合并中提出了兩種合并策略,并進行了比較。在Reduce節點任務中優化了超像素塊內合并,完成最終的分割。實驗結果表明.所提算法在邊緣查全率(BR)和欠分割錯誤率(UR)等分割質量指標上優于簡單線性迭代聚類( SLIC)算法和標準分割(Ncut)算法,在高分辨率圖像的分割時間上有顯著降低。
?
非常好我支持^.^
(0) 0%
不好我反對
(0) 0%
下載地址
基于Hadoop在超像素分割算法中應用下載
相關電子資料下載
- Hadoop是什么?其核心由兩大部分組成,分別是什么? 1188
- 最全綜述:圖像分割算法 533
- 圖像分割算法原理及工作流程 1249
- 雷達點云動態目標分割算法研究分析 585
- 詳解圖像分割算法 1040
- 大數據計算框架簡介 1927
- 大數據相關介紹:Hadoop的生態系統構成 1909
- Hadoop大數據存算分離方案:計算層無縫對接存儲系統 1011
- 首個無監督3D點云物體實例分割算法 1824
- 開源“摩爾定律”即將打破《2022開源大數據熱力報告》云棲大會上發布 490