分類: 論文筆記

  • 【論文導讀】Deep Closest Point: Learning Representations for Point Cloud Registration(理論篇)

    這是一篇今年五月八號才發的文章,
    發表在計算機視覺最猛的 CVPR 期刊,文章來自大神集散地 MIT

    內容大抵是在講 Deep Closest Point(DCP),
    也就是修正迭代最近點(ICP)的點雲對齊算法。

    Abstract 說了:這篇文章是要利用 DCP 解決 ICP 的 Local optimal 問題

    什麼是 Local optimal 呢?

    利用爬山演算法(Hill-Climbing Algorithm)來解釋:

    借用別人的圖

    來自 www.itread01.com/content/1544182326.html

    就是當搜索點從 C 開始搜尋最高點時,A點會被認為最佳解。
    但 A點 並不一定是全域最佳解(Global optimal

    讓我們來看看為什麼 DCP 可以解決 Local optimal 問題

    首先看到 DCP 的結構圖

    X 與 Y 是同一張點雲圖,但 Y 被做過 「旋轉」 及 「平移」
    X = {x1, . . . , xi
    , . . . , xN } ⊂ R3 
    Y = {y1
    , . . . , yj
    , . . . , yM} ⊂ R3 
    這兩行分別表示 X 與 Y 點雲 的 "點集合"
    作者用了兩個網路來擷取特徵值並比較
    一個是她自己幹的 DGCNN(PointNet改良版)、一個則是 PointNet
    簡單的來說,為什麼 DGCNN 會能夠解決 Local optimal 的問題,要從 DGCNN 的結構來看。
    (欲看一個立委如何做立委,丟係愛看伊怎樣做立委。)
    (DGCNN(上圖)、PointNet(下圖))
    我們可以觀察到 DGCNN 與 PointNet 的架構 只差在 DGCNN 把 PointNet 的 MLP 單元置換掉成 
    什麼是 EdgeConv?
    EdgeConv 就是 取一點 對鄰近的"K"個點做 Convolution ,這樣就能得到那個區域的特徵。
    (KNN)
    得到 Local 特徵的情況下
    我們拉回 DGCNN 的 DG(Dynamic Graph)
    為什麼 DGCNN 能夠解決 Local optimal 是因為每次計算下一層特徵的時候都會重新計算,
    像這樣:
    由右至左是計算次數的多寡,能看見經過多次計算後,
    局部特徵的關係會越來越像圖形中其他同樣特徵,物理距離卻比較遠的部分。
    所以我們得到局部特徵 
    FX={x1L,x2L,, 

    把這兩組特徵塞進 Transformer 裡面


    NLP 的部份請參考我寫的這篇文章
    下一篇即將進入實作