Saturday, July 03, 2021

YOLO(四):Appendix

 YOLO(四):Appendix

2021/06/23

-----


說明:

YOLO v3 的損失函數。

K x K:網格數目。

M:bounding box 個數。

λcoord:座標的比重。

λnoobj:無預測到物件的比重(要減少 no obj 的比重)。

I obj:是否含有物體,含有 1,不含是 0。

(2-wxh) 的比例係數,用來加大對小 box 的損失。

hat(x y w h):無 hat 為預測值,有 hat 為 ground truth。

C:Confidence

p:該類別的機率

Loss

https://zhuanlan.zhihu.com/p/119998277

https://blog.csdn.net/bblingbbling/article/details/106910026

YOLO 之前使用 softmax 分類,但這不適用於多類別譬如 woman 同時也是 person。因此 YOLOv3 把損失函數的分類部分改為 BCE Binary Cross Entropy。

https://medium.com/%E7%A8%8B%E5%BC%8F%E5%B7%A5%E4%BD%9C%E7%B4%A1/yolo-v3-%E7%89%A9%E4%BB%B6%E5%81%B5%E6%B8%AC-%E8%AB%96%E6%96%87%E6%95%B4%E7%90%86-11ee909430c8

i 是網格。p hat:1 或 0,single label 有一個 target 為 1。multi label 有多個 target 為 1。target 的 loss 計算前半部,非 target 的 loss 計算後半部。

https://towardsdatascience.com/cross-entropy-for-classification-d98e7f974451

-----


# Zero-Centered

說明:


-----


# Zero-Centered

說明:


https://zhuanlan.zhihu.com/p/143747206

-----


Figure 1. Illustration of our framework. (a) FPN backbone. (b) Bottom-up path augmentation. (c) Adaptive feature pooling. (d) Box branch. (e) Fully-connected fusion. Note that we omit channel dimension of feature maps in (a) and (b) for brevity.

圖 1. 我們的框架圖解。 (a) FPN 主幹。 (b) 自下而上的路徑增強。 (c) 自適應特徵池化。 (d) 箱分支。 (e) 全連接融合。 請注意,為簡潔起見,我們在 (a) 和 (b) 中省略了特徵圖的通道維度。

# PANet

說明:

紅線經由卷積可以保留較多的語義特徵。綠線經由下取樣可以保留較多的輪廓特徵。

a. FPN。由上而下的語義增強。經過卷積之後,上層的特徵圖有較強的語義特徵,上取樣之後相加,則較低的特徵圖也就擁有較強的語義特徵。語義特徵有助於分類。

b. 由下而上的作法可以保留較多的輪廓特徵。輪廓特徵有助於建議框的預測或物體分割。

https://www.gushiciku.cn/pl/pnty/zh-tw

-----




# YOLOv4

說明:


-----


# YOLOv4

說明:


-----


# YOLOv4

說明:


-----


# YOLOv4

說明:


-----

# Vehicle Trajectory

Seong, Seonkyeong, et al. "Determination of vehicle trajectory through optimization of vehicle bounding boxes using a convolutional neural network." Sensors 19.19 (2019): 4263.

https://pdfs.semanticscholar.org/567a/a9a3a2807ee9e15ab5328b1f210b7d4e962c.pdf


# YOLOv2 Structure

Seong, Seonkyeong, et al. "Determination of vehicle trajectory through optimization of vehicle bounding boxes using a convolutional neural network." Sensors 19.19 (2019): 4263.

https://www.mdpi.com/1424-8220/19/19/4263/pdf


# Zero-Centered

Kim, Sungrae, and Hyun Kim. "Zero-Centered Fixed-Point Quantization With Iterative Retraining for Deep Convolutional Neural Network-Based Object Detectors." IEEE Access 9 (2021): 20828-20839.

https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=9336635


# PANet

Liu, Shu, et al. "Path aggregation network for instance segmentation." Proceedings of the IEEE conference on computer vision and pattern recognition. 2018.

https://openaccess.thecvf.com/content_cvpr_2018/papers/Liu_Path_Aggregation_Network_CVPR_2018_paper.pdf

-----

No comments: