這是一篇今年五月八號才發的文章,
發表在計算機視覺最猛的 CVPR 期刊,文章來自大神集散地 MIT

內容大抵是在講 Deep Closest Point(DCP),
也就是修正迭代最近點(ICP)的點雲對齊算法。

Abstract 說了:這篇文章是要利用 DCP 解決 ICP 的 Local optimal 問題

什麼是 Local optimal 呢?

利用爬山演算法(Hill-Climbing Algorithm)來解釋:

借用別人的圖

來自 www.itread01.com/content/1544182326.html

就是當搜索點從 C 開始搜尋最高點時,A點會被認為最佳解。
但 A點 並不一定是全域最佳解(Global optimal

讓我們來看看為什麼 DCP 可以解決 Local optimal 問題

首先看到 DCP 的結構圖

X 與 Y 是同一張點雲圖,但 Y 被做過 「旋轉」 及 「平移」
X = {x1, . . . , xi
, . . . , xN } ⊂ R3 
Y = {y1
, . . . , yj
, . . . , yM} ⊂ R3 
這兩行分別表示 X 與 Y 點雲 的 "點集合"
作者用了兩個網路來擷取特徵值並比較
一個是她自己幹的 DGCNN(PointNet改良版)、一個則是 PointNet
簡單的來說,為什麼 DGCNN 會能夠解決 Local optimal 的問題,要從 DGCNN 的結構來看。
(欲看一個立委如何做立委,丟係愛看伊怎樣做立委。)
(DGCNN(上圖)、PointNet(下圖))
我們可以觀察到 DGCNN 與 PointNet 的架構 只差在 DGCNN 把 PointNet 的 MLP 單元置換掉成 
什麼是 EdgeConv?
EdgeConv 就是 取一點 對鄰近的"K"個點做 Convolution ,這樣就能得到那個區域的特徵。
(KNN)
得到 Local 特徵的情況下
我們拉回 DGCNN 的 DG(Dynamic Graph)
為什麼 DGCNN 能夠解決 Local optimal 是因為每次計算下一層特徵的時候都會重新計算,
像這樣:
由右至左是計算次數的多寡,能看見經過多次計算後,
局部特徵的關係會越來越像圖形中其他同樣特徵,物理距離卻比較遠的部分。
所以我們得到局部特徵 
FX={x1L,x2L,, 

把這兩組特徵塞進 Transformer 裡面


NLP 的部份請參考我寫的這篇文章
下一篇即將進入實作




By wuyiulin

喜歡騎單車的影像算法工程師

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *