Thursday, July 27, 2017

AI 從頭學(三五):DPM

AI 從頭學(三五):DPM

Object Detection with Discriminatively Trained Part-Based Models

2017/07/27

前言:

本篇為 R-CNN 的熱身之一。

Summary:

本次講解的論文,主要是利用 Latent SVM (L-SVM) 進行的物件偵測 [1]。

之所以選擇這篇論文閱讀,起因是之前一篇論文 [2],引用的 R-CNN [3],用到了 Selective Search [4] 跟 L-SVM [1]。

[1] 跟它前一個版本 [5],都使用了 Histograms of Oriented Gradients (HOG) 作為特徵擷取的方法 [6], [7]。SIFT [8] 跟 HOG 類似,本文將藉助它來闡述 HOG 的原理。

[6] 處理的是概略的人體輪廓,[1], [5] 則利用 [9], [10] 計算出局部的框架,除了有較高的辨識率,也可適應各種不同物體的偵測。

L-SVM 可以說是一種 Energy-Based Model [11],也可說是一種 MI-SVM [12]。限於篇幅,本文將只會講解簡單的 SVM 概念 [13] ,並不會對 L-SVM 著墨太多(其實是作者還在努力K書中)。

-----

本文將分成八個小節進行。

Q1: What is L-SVM?
Q2: What is AOL?
Q3: What is HOG?
Q4: What is SIFT?
Q5: What is SVM?
Q6: What is the Pyramid Structure?
Q7: What is the flowchart of the object detection algorithm?
Q8: What is the result?

-----

Q1: What is L-SVM?

A1:

圖1.1上方是測試的圖片,下方則是訓練出來的 L-SVM 模型。

圖1.1a可以看到一個粗略的人體形狀,這是 Linear SVM 訓練出來的 HOG filter [6]。

圖1.1b則是在 [6] 的基礎上,加上局部的 filters。由於局部位置並沒有標籤,所以在訓練時它們必須被視為 latent (hidden) variables [1]。

圖1.1c則是最後的模型,顯示為空間權重的表現。

技術細節在本文內稍後會討論。


Fig. 1.1. Detections obtained with a single component person model, p. 2 [1].

-----

圖1.2是不同種類物件的模型,此處列出的有瓶子、汽車、沙發、腳踏車。
圖1.3列出的有人、瓶子、貓、汽車。我們可以看到人與瓶子、貓與汽車有類似的模型。

這邊值得注意的是舊版本跟新版本的差異:新版的每個種類有兩個子模型來輔助偵測,稱為 mixture model。



Fig. 1.2. Some models learned from the PASCAL VOC 2007 dataset, p. 6 [5].



Fig. 1.3. Some of the models learned on the PASCAL 2007 data set, p. 1641 [1].

---

Q2: What is AOL?

A2:

AOL 是 2015年一篇論文標題的縮寫 [2],參考圖2。[2] 主要引用了 R-CNN [3]、ZFNet、DQN,都是相當經典的論文。

R-CNN [3] 主要又引用了 Selective Search [4] 與 L-SVM [1],這便是此次報告 [1] 的緣故。



Fig. 2. Related research.

-----

Q3: What is HOG?

A3:

HOG 是 Histograms of Oriented Gradients 的縮寫,這篇發表於 2005 的論文 [6],截至作者撰寫文章之時,獲得 19606 次引用。[1] 的基本架構即根植於此。所以本篇先簡介一下 HOG。

圖3.1a是資料庫內的圖片,大小統一為 64 x 128,參考圖3.1b。



Fig. 3.1a. Some sample images from the new human detection database, p. 3 [6].



Fig. 3.1b. The image resolution is 64 x 128, p. 2 [6].

-----

此處假設讀者已有 SVM 的基礎。稍後在 Q5 會簡介 SVM。

圖3.2a是全部圖片的平均值,由於圖片在處理時左右反過來也用了,所以看到的是一個對稱的圖形。

圖3.2b跟3.2c是 Linear SVM 訓練完後,向量最大權重的顯示,分別是「人」與「非人」。這邊一個 pixel 代表一個 8 x 8 的向量(的最大值),對應於圖3.2e則是 HOG descriptor,在 8 x 8 的矩陣內,有九個方向的線條,線條的強度則以明暗表示(可參考下方的放大圖)。

圖3.2d是測試圖片。

圖3.2d經過HOG的計算後,得到圖3.2e。分別乘上 (b)與(c),則得到 (f)與(g)。

更詳細的介紹,可以參考 Q7。



Fig. 3.2. The HOG detectors cue mainly on silhouette contours, p. 7 [6].



Fig. 3.2e. It’s computed R-HOG descriptor, p. 7 [6].

-----

圖3.3是完整的流程圖,有六個步驟。其中第一跟第四的 normalization 可以參考 [7],本文會介紹步驟二、三、五、六。



Fig. 3.3. An overview of the feature extraction and object detection chain, p. 2 [6].

-----

Q4: What is SIFT?

SIFT 是 Scale-Invariant Feature Transform [8] 的縮寫。它跟 HOG 「有點像」。

圖4.1左邊看到最小的是 n x n 的 pixel cells,接下來是 4 x 4 的 grids,然後 2 x 2 的 grids 組成一個 descriptor。這邊可以看到強度是由箭頭的長度顯示,HOG則是明暗。另外 SIFT有八個方向。HOG 在論文中則選九個方向。

計算的公式可以參考圖4.2。



Fig. 4.1. SIFT: A keypoint descriptor is created, p. 101 [8].



Fig. 4.2. SIFT: For each image sample, the gradient magnitude and orientation is precomputed using pixel differences, p. 99 [8].

-----

SIFT 簡介完後,回到 HOG。

圖4.3a 顯示的是 [1] 中訓練完後的 36 (9 x 4) 個 eigenvector,每個 eigenvector 是 36 (9 x 4) 維的向量。

這個圖可以跟圖3.2e一起看。也就是,圖3.2e中的每個「雪花」可以用這36個(或部分) eigenvectors 組成。概念上每個雪花由四個小雪花組成,每個小雪花有九個方向,每個方向有其強度值,四個小雪花,所以是 9 x 4。

圖4.3b、c、d則是輔助的文字說明。



Fig. 4.3a. PCA of HOG features, p. 1638 [1].



Fig. 4.3b. HOG: A 4 x 9 matrix, p. 1639 [1].



Fig. 4.3c. HOG: A vector of length 9 x 4, p. 2 [5].



Fig. 4.3d. HOG vs. SIFT, p. 6 [6].

-----

計算梯度的方法,在 [6] 中試了好幾個,以 [-1, 0, 1] 最佳,參考圖4.4a。

圖4.4b則是 HOG 計算方向的方法。可以跟 SIFT 比較不同之處。



Fig. 4.4a. HOG: Simple 1-D [-1, 0, 1] masks work best, p. 4 [6].



Fig. 4.4b. HOG: Gradient orientation and magnitude, p. 1638 [1].

-----

Q5: What is SVM?

A5:

這邊簡介一下 Support Vector Machine (SVM) 支持向量機 [13]。

圖5.1的 D(x) 是一個「超平面」。w 是一個 n 維的向量。

圖5.2是一個線性SVM,φ(x)= x。維度為 2,以此為例。

有兩類資料散佈在平面上(大致聚集成兩團),其值分別被標誌為 1 與 -1。

從中取出訓練集,找出 D(x) 使得 M 為最大,也就是找出D(x)=0兩旁虛線上的幾個向量,連帶找出 w (以及)b。這幾個向量就稱為支持向量。

在 [6] 中把訓練圖形的 HOG 計算出來後,則可以使用此處介紹的 Linear SVM 加以分類。



Fig. 5.1. The decision function in the direct space, p. 145 [13].



Fig. 5.2. Maximum margin linear decision function D(x), p. 146 [13].

-----

Q6: What is the Pyramid Structure?

A6:

參考圖6.1。其實這邊的金字塔只有兩層。

淺藍色的部分跟 [6] 一樣,是單純的行人檢測。

[1], [5] 與 [6] 的不同之處,在於加上了局部的結構,就是黃色的框框。

圖6.2則是測試圖與 L-SVM 訓練出來的模型。



Fig. 6.1. The HOG feature pyramid, p. 2 [5].



Fig. 6.2. Example detection obtained with the person model, p. 1 [5].

-----

這邊有個疑問就是 bounding box(圖6.3虛線部分)是如何找出來的。

[6] 是固定大小整張的 64 x 128,沒什麼問題。然後人都在中間部分。

在 [5] 跟 [1] 裡面,bounding box 是由資料庫提供,參考圖 6.4a與6.4b。

有疑問的在圖6.4c,根據 [4] 的說法,[1] 是用窮舉法把所有可能的位置都試過。可以參考圖7.1,filters 整張圖滑過,找出兩個人。

有關 bounding box 如何找出來,[4] 提供了很好的演算法,有機會報告 [4] 的時候再討論。



Fig. 6.3. The dotted box is the bounding box label provided in the PASCAL training set, p. 5 [5].



Fig. 6.4a. The dotted box is the bounding box label provided in the PASCAL training set, p. 5 [5].



Fig. 6.4b. Training models from images labeled with bounding boxes, p. 1636 [1].



Fig. 6.4c. Exhaustive search, p. 155 [4].

-----

圖6.5顯示一個較好的 bounding box 是 [1] 的副產品。


Fig. 6.5. A car detection and the bounding box predicted from the object configuration, p. 1640 [1].

-----

Q7: What is the flowchart of the object detection algorithm?

A7:

圖7.1是圖片偵測演算法的流程圖。

右上方是訓練好的模型。

計算出 HOG之後,大致就是整體與局部的加總。

主要的重點有二:

第一,局部的小框框,要用 [8], [9] 先找出來,參考圖7.2([14], [15])。

第二,局部的權重要經過 [8] 的轉換,參考圖7.3([14])。

這兩篇論文不在本篇的討論範圍內。



Fig. 7.1. The matching process at one scale, p. 1633 [1].



Fig. 7.2. Best locations of the parts, p. 1631 [1].



Fig. 7.3. Generalized distance transform, p. 1632 [1].

-----

[5] 跟 [6] 的主要差別。

[5] 多了局部,bounding box 大小在不同圖片中也不一樣。



Fig. 7.4. L-SVM vs. HOG, p. 1628 [1].

-----

[1] 跟 [5] 的主要差別。

同一類別中,[1] 訓練兩個(以上?)的 model,稱為 mixture model。

另外演算法改進了很多。



Fig. 7.5. L-SVM 2010 vs. L-SVM 2008, p. 1630 [1].

-----

Q8: What is the result?

A8:

圖8.1是一個腳踏車的模型,可以看到正面跟側面。

圖8.2是汽車的模型,顯示了從整體再到「整體加局部」的訓練過程。

圖8.3跟8.4是部分測試結果,有部分錯誤是因為條件設定的關係。



Fig. 8.1. Detections obtained with a two-component bicycle model, p.1629 [1].



Fig. 8.2. The result of Phase 1 (a), (b) and Phase 3 (c) of the initialization process, p. 1637 [1].



Fig. 8.3. Examples of high-scoring detections on the PASCAL 2007 data set, p. 1642 [1].



Fig. 8.4. Some results from the PASCAL 2007 dataset, p. 7 [5].


-----

結論:

HOG + SVM 曾經引領風騷很久,在目前 Deep Learning 大行其道之時,仍有很高的研究價值。

-----

References

[1] 2010_Object detection with discriminatively trained partbased models

[2] 2015_Active object localization with deep reinforcement learning

[3] 2014_Rich feature hierarchies for accurate object detection and semantic segmentation

[4] 2013_Selective search for object recognition

[5] 2008_A discriminatively trained, multiscale, deformable part model

[6] 2005_Histograms of oriented gradients for human detection

[7] 目標檢測的圖像特徵提取之(一)HOG特徵
http://alex-phd.blogspot.tw/2014/03/hog.html

[8] 2004_Distinctive image features from scale-invariant keypoints

[9] 2004_Distance transforms of sampled functions

[10] 2005_Pictorial structures for object recognition

[11] 2006_A tutorial on energy-based learning

[12] 2003_Support vector machines for multiple-instance learning

[13] 1992_A training algorithm for optimal margin classifiers

Friday, June 16, 2017

AI 從頭學(三0):Conv1

AI 從頭學(三0):Conv1

2017/06/16

網路上查了一些資料,主要是 inception 的輸出如何接起來 [1]-[4],接起來後,緊接著就是 1 x 1 convolution (conv1) [5], [6]。

Conv1 簡單說就是把圖1右邊壓成一張,然後把它第一張丟掉,補上新的在最後面,這樣可以壓成第二張新的。

這樣會引出一個問題,不重要的要擺前面,因為一張一張一直丟。

果真如此嗎?

其實第一張的資訊在第一次就有一個 w 留下了,在最後訓練完,w 也會有它應得的比重,第一張,其實從來沒被丟掉過...

----- 



Fig. 2.531m [2].



Fig. 3. 53m1 [3].



Fig. 4. 531m [4].

-----

References

[2] 531m
https://image.slidesharecdn.com/googlenet-insights-160920190051/95/googlenet-insights-10-638.jpg?cb=1484768593

[3] 53m1
https://image.slidesharecdn.com/googlenet-insights-160920190051/95/googlenet-insights-11-638.jpg?cb=1484768593

[4] 531m
https://www.e-sciencecentral.org/upload/ijfis/thumb/ijfis-17-026f5.gif

[5] AI從頭學(二八):Network in Network
http://hemingwang.blogspot.tw/2017/06/ainetwork-in-network.html

[6] AI從頭學(二九):GoogLeNet
http://hemingwang.blogspot.tw/2017/06/aigooglenet.html 

Monday, June 12, 2017

AI 從頭學(二九):GoogLeNet

AI 從頭學(二九):GoogLeNet

2017/06/12

前言:

GoogLeNet 裡面,1 x 1 convolution 很重要,也不難瞭解。至於它的理論基礎:稀疏網路的最佳化,這個才是核心。讀到現在,發現數學越來越多了!

Summary:

GoogLeNet 是 Google 向 LeNet 致敬的論文,本文討論 GoogLeNet 的架構 [1]。

構想來自大腦皮層的概念 [2],作法上利用大量的 1 x 1 convolution 降維以使超深的架構運算量降低到可以實現的水平 [3], [4],數學上的理論基礎則來自 [5]。

-----


http://celebnetworth.wiki/wp-content/uploads/2014/04/Google-Net-Worth.jpg
 
-----

Question

Q1: Multiple scales
Q2: Dimension reduction
Q3: Sparsity
Q4: Structure
Q5: Concatenation
Q6: Convolution
Q7: LRN, dropout and softmax

本文以回答七個問題的方式完成 GoogLeNet 的解說。

-----

Q1: Multiple scales

GoogLeNet 提出了 Inception 的概念作法是將 1 x 1, 3 x 3, 5 x 5 三種 convolutions 與 3 x 3 maxpooling 封裝在一個模組中,參考圖1.1a。然後重複使用這種模組進行特徵抽取。

這個概念是來自之前的視覺研究採用了類似大腦皮層的架構 [2],即皮層中對不同 scales 有不同的神經細胞對應,參考圖1.2。採用小的 filters 其中一個考量是運算量較小,另一個考量是由小的 filters 組成大型 filter 有較高的非線性。多種表現良好的大型網路都使用較小的 filters 組成。



Fig. 1.1. Inception module, p. 4 [1].



Fig. 1.2a. Multiple scales, p. 2 [1].



Fig. 1.2b. Multiple scales, p. 414 [2].

-----

Q2: Dimension reduction

由於擴展越到深層,運算量也大幅提升,因此利用 1 x 1 convolution 來降維 [3], [4],參考圖1.3。



Fig. 1.3. Dimension reduction, p. 2 [1].

-----

Q3: Sparsity

其理論基礎來自一個嚴格的數學證明:如果一個資料集的機率分布函數可以表現為一個大型的深層稀疏網路,則藉由分析前一層的激活,把有高度相關輸出的神經元群集在一起,則可以產生一個最佳化的網路拓樸。

這段話算是圖1.4的簡單翻譯,但簡單來說,就是不斷提煉,傳統上 CNN 即是如此 [6], [7],經由反覆的 convolution 與 pooling 萃取特徵。只是 Inception 的架構藉由 Hebbian principle 把不同 scale 的 filters 與 pooling 封裝在一起,然後重複使用。



Fig. 1.4. Sparsity, p. 2 [1].



Fig. 1.5. Hebbian principle. p. 3 [1].



Fig. 1.6a. The Inception architecture started out as a case study for assessing the hypothetical output and covering the hypothesized outcome, p. 3 [1].



Fig. 1.6b. The Inception architecture started out as a case study for assessing the hypothetical output and covering the hypothesized outcome, p. 3 [1].

-----



Fig. 2.1. Module 1, p. 6 [1].



Fig. 2.2. Module 2, p. 6 [1].



Fig. 2.3. Module 3, p. 6 [1].



Fig. 2.4. Module 4, p. 6 [1].



Fig. 2.5. Module 5, p. 6 [1].



Fig. 2.6. Module 6, p. 6 [1].

-----

Q4: Structure

圖2.1到2.6為 GoogLeNet 的細部分解。接下來透過圖3.5說明 GoogLeNet 的架構。

首先,#3x3 reduce 與 #5x5 reduce 分別代表 1 x 1 conv 的數目,降維用,參考圖3.1a。另外,pool proj 也是代表 1 x 1 conv 的數目,也是用來降維(接在 max pooling 之後)。



Fig. 3.1a. Number of 1 x 1 filters, p. 4 [1].



Fig. 3.1b. Pool proj, p. 4 [1].

-----

輸入的圖片大小是224x224,有 RGB 三個 channels,參考圖3.2。論文中並未特別說明處理方式。

經過第一層的 convolution, stride = 2 處理後,大小變為112x112,深度為64(有64個7x7 convolutions)。再經過 max pooling, stride = 2,大小變為 56x56x64。然後經過第二層的處理,大小變為28x28x193,這個會成為 Inception 3(a) 的輸入,參考圖3.3a。

-----

Q5: Concatenation

接下來是很重要的一部份,輸出要串在一起,參考圖3.3b。在 note * - **** 的接法分別是m531、531m、53m1、531m,並不一致。圖3.3c與3.3d則以論文圖表列出的順序進行一些討論。

首先,相關性高的應該在一起,所以 1 x 1 跟 3 x 3 接在一起,3 x 3 跟 5 x 5 接在一起。另外,不重要的應該要擺前面,因為 1 x 1 降維時會沿著前面一路丟掉 feature map。max pooling 的重要性高或低?以它數量較少,擺在後面比較適合,因為物以稀為貴。不過這些都只是很浮掠的猜測。順序到底會不會真的影響結果,也值得探討!




Fig. 3.2. Input image size, p. 4 [1].



Fig. 3.3a. Output size, p. 5 [1].



Fig. 3.3b. Single output vector, p. 5 [1].



Fig. 3.3c. Inception 3.



Fig. 3.3d. Inception modules.

-----

論文中提到:隨著層的提高,3 x 3 跟 5 x 5 convolution 的比例要提高,參考圖3.3e。我們可以看到,在 Inception 3、4、5 內往 top 移時,3 x 3 跟 5 x 5 個數變多,Ratio則未必,參考圖3.3d與3.3f。

在 Inception 3、4、5 的最高層,3b、4e、5b,1 x 1 的 convolutions 用來升維,作用跟 ResNet 中部分的 1 x 1 convolution 是一樣的 [4]。Inception 3、4、5 的最高層,其深度跟下一層接近,參考圖3.3d。




Fig. 3.3e. Ratio of convolutions, p. 5 [1].



Fig. 3.3f. Ratio of convolutions.

-----

Q6: Convolution

從 1 x 1 的降維,到 3 x 3 或 5 x 5 convolution,數目不一定成倍數增加,細節在論文中並沒提到,參考圖 3.4a。這有 LeNet 可以參考,如何從6張圖增加到16張圖,參考圖3.4b與3.4c。

至於 convolution 之後圖會變小,可以用 padding 的方式讓圖維持固定大小以便接起來傳到下一層,可以參考圖3.4d。



Fig. 3.4a. Convolutions, p. 5 [1].



Fig. 3.4b. Convolutions from 6 to 16, p. 7 [6].



Fig. 3.4c. Convolutions from 6 to 16, p. 8 [6].



Fig. 3.4d. Padding, p. 13 [8].

-----

Q7: LRN, dropout and softmax

圖3.5是較完整參數說明。LRN 與 dropout 可參閱之前寫的 AlexNet 介紹 [9], [10]。Softmax 則可參考 [11]。



Fig. 3.5. GoogLeNet incarnation of the Inception architecture, p. 5 [1].

-----

結論:

GoogLeNet 的設計很巧妙,值得細細品味!

-----

References

[1] 2015_Going deeper with convolutions

[2] 2007_Robust object recognition with cortex-like mechanisms

[3] 2014_Network in network

[4] AI從頭學(二八):Network in Network

[5] 2014_Provable bounds for learning some deep representations

[6] 1998_Gradient-Based Learning Applied to Document Recognition

[7] AI從頭學(一二):LeNet

[8] 2016_A guide to convolution arithmetic for deep learning

[9] 2012_Imagenet classification with deep convolutional neural networks

[10] AI從頭學(二七):AlexNet

[11] Lab DRL_04:Caffe網絡定義

Wednesday, May 31, 2017

AI 從頭學(二六):AlexNet

AI 從頭學(二六):AlexNet

2017/05/31

前言:
  
講解 AlexNet,主要是為 Caffe 的實作課程鋪路。

-----

Summary:

AlexNet [1] 扮演承先啟後的角色 [2]-[4],是現代深度學習網路的基礎。相關卷積神經網路的簡介,可以參考之前的文章 [6]-[10]。

本文介紹 AlexNet 使用的一些技巧,包含 LRN [11], [12]、ReLU [13]、Pooling [14]、Dropout [15]-[18]等。

-----

AlexNet 是現代大型卷積神經網路的濫觴 [1],自2012年發表以來,到筆者寫稿時間已經有超過12000的引用,粗估每個月有200次引用。我們大約可以說,LeNet [3] 引起機器學習界對於神經網路的關注,AlexNet 引起學術界對深度學習的關注,而 AlphaGo [4] 則引起全世界的人對人工智慧的好奇。

在以問題進入 AlexNet 之前,先說明何謂 Top-1 與 Top-5 [1]。Top-1 的錯誤率指的是圖片正確的標籤是否被準確預測。Top-5 的錯誤率則是,如果你預測的前五個選項包含正解,則此次的預測就算正確。

下面以七則問題來解釋 AlexNet。

-----

Question

Q1: Structure
Q2: GPU
Q3: Augmentation
Q4: LRN
Q5: ReLU
Q6: Pooling
Q7: Dropout

-----

Q1: Structure

AlexNet 的架構,大致可以想像成比較「巨大」的 LeNet,參考圖1.1 與 圖1.3。包含輸入層、卷積層、池化層、全連接層、輸出層等。另外有些層後面也會使用激活函數。2013年提出的 ZFNet則修改了一些參數,提升不少效能,參考圖1.2 與 圖1.4。

-----


Fig. 1.1. AlexNet [1].



Fig. 1.2. Modification of AlexNet [2].



Fig. 1.3. LeNet [3].



Fig. 1.4. Architectural changes of AlexNet [2].

-----

Q2: GPU

當時 AlexNet 率先使用 GPU 並獲得極大的成功。GPU 使用兩塊,而線條與顏色的 C1 filters 每次都會落在不同的 GPU 上 [7],是值得思考的問題。

-----

Q3: Augmentation

資料擴增有助於降低 overfitting,也就是提升測試時的準確性。由於在 CPU 而不是 GPU 上做,所以對於整體計算時間,可說沒有影響。

第一個方法是 horizontal reflections,也就是左右翻轉。
第二個方法是 altering the intensities of the RGB channels,使用 PCA 改變一點顏色。此處原文並未引用論文,雖然影響不小,對 Top-1 有1%,這邊我們就帶過。

-----

Q4: LRN

Local response normalization (LRN),局部反應標準化。

這點值得一提。

圖2.1的公式有點複雜,所以我們可以先看看它的靈感來源,從最早的圖2.3先看好了。這是一個 V1-like 的模型,也就是它模仿視覺皮層的第一層的反應。主要概念是減去平均值然後再標準化。圖2.3跟圖2.2都是處理對比,圖2.1由於沒有減去平均值,所以他說他是在處理亮度。裡面的參數是作者調出來的。



Fig. 2.1. Local response normalization, p. 4 [1].



Fig. 2.2. Local contrast normalization, p. 3 [11].



Fig. 2.3. Local input divisive normalization, p. 5 [12].

-----

Q5: ReLU

ReLU 是激活函數的一種,近年來比較多人使用。細節可以參考 [13]。

-----

Q6: Pooling

一般池化區不重疊 [14]。本論文使用重疊的方法,Top-1 錯誤率降低 0.4%,Top-5 降低 0.3%。

-----

Q7: Dropout

很快就講到 dropout 了。Dropout 是很簡單的概念,用在全連接層上。

參考圖3.1,在訓練時丟棄每層上面一些節點,每次丟棄的點是隨機選出,這樣等於每次是在不同的網路上訓練,可以有效避免 overfitting。

圖3.2講的是如果某個節點在訓練時出現的機率是p,由於測試時全部節點都保留,所以權重w要乘上p。

圖3.3是公式,這邊要先講解圖3.5比較清楚。

圖3.5左方是傳統的神經網路,如果我們先隨機產生一個值,1的機率是p,0的機率是(1-p),然後把值乘上權重再加總,這等於說有乘1被保留,乘0被丟棄,這樣就同時說明了圖3.3的公式與圖3.4的 Bernoulli distribution。

[16] 有深入的說明,[17], [18] 則是簡易的解說。Dropconnect [17] 則是 dropout 的特殊型 [16],雖然 [17] 聲稱它是一般化,我支持 [16] 的論點。

圖3.6是幾種激活函數搭配 drop 的比較,有意思的是 tanh 搭配 dropout 之後反而變差了!



Fig. 3.1. Dropout neural net model, p. 1930 [15].



Fig. 3.2. A unit at training time and at test time, p. 1931 [15].



Fig. 3.3. Formulae of a standard and dropout network, p. 1933 [15].



Fig. 3.4. Bernoulli distribution, p. 62 [16].



Fig. 3.5. Standard and dropout network, p. 1934 [15].



Fig. 3.6. Drop and activation function p. 5, [20].

-----

結論:

AlexNet 後續的 ZFNet、VGGNet 等都繼承了它的架構,即使是另一個路線的 GoogLeNet,也使用了它的技巧如 dropout 等 [8],可見 AlexNet 的成功!

-----

References

[1] 2012_Imagenet classification with deep convolutional neural networks

[2] 2014_Visualizing and understanding convolutional networks

[3] 1998_Gradient-Based Learning Applied to Document Recognition

[4] 2016_Mastering the game of Go with deep neural networks and tree search

[5] AI從頭學(一二):LeNet
http://hemingwang.blogspot.tw/2017/03/ailenet.html

[6] AI從頭學(一三):LeNet - F6
http://hemingwang.blogspot.tw/2017/03/ailenet-f6.html

[7] AI從頭學(二五):Kernel Visualizing
http://hemingwang.blogspot.tw/2017/05/aikernel-visualizing.html

[8] AI從頭學(一八):Convolutional Neural Network
http://hemingwang.blogspot.tw/2017/03/aiconvolutional-neural-network_23.html

[9] AI從頭學(一一):A Glance at Deep Learning
http://hemingwang.blogspot.tw/2017/02/aia-glance-at-deep-learning.html

[10] AI從頭學(二六):Aja Huang
http://hemingwang.blogspot.tw/2017/05/aiaja-huang.html

[11] 2009_What is the best multi-stage architecture for object recognition

[12] 2008_Why is real-world visual object recognition hard

[13] mAiLab_0005:Activation Function
http://hemingwang.blogspot.tw/2017/05/mailab0005activation-function.html

[14] mAiLab_0006:Pooling
http://hemingwang.blogspot.tw/2017/05/mailab0006pooling.html 

[15] 2014_Dropout, a simple way to prevent neural networks from overfitting

[16] 2016_Deep Learning

[17] 2013_Regularization of neural networks using dropconnect

[18] 2013_Maxout networks

Wednesday, May 24, 2017

AI 從頭學(二五):AlphaGo

AI 從頭學(二五):AlphaGo

2017/05/24

以四勝一負在2016年擊敗李世乭的 AlphaGo [1],在2017/5/23,再度以1/4目之差,小勝持黑的柯潔 [2]。AlphaGo 背後的靈魂人物,說是 Aja Huang 也不為過 [1]。

-----


Fig. 1. 黃士傑與AlphaGo對弈李世乭 [1]。



Fig. 2. 第 24 手「大飛」,第 54 手「斷」[2].

-----

Aja Huang 是台師大資工博士,碩士班跟博士班的題目都是圍棋 [1]。看完與柯潔的對奕之後,我特地找了他的博士論文來看 [3],參考文獻裡看似只有一篇跟深度學習有關 [4],其餘多屬強化學習的 MCTS [3]。

不過這篇 backpropagation [4] 並非我們熟悉的 BP 演算法 [5]。回過頭來再看 2016 年 DeepMind 發表的論文 [6],在 Huang 專門的 MCTS 之上,導入近年來最熱的深度學習 [7],Policy Network、Value Network、MCTS 三缺一不可,才是致勝的關鍵。

用 CNN 來下圍棋並非 DeepMind 首創 [8],早在1996年,即有學者提出用類神經網路下圍棋的概念 [9]。

[6]、[7]、[8]、[10] 一路追下去,[10] 這篇應該可以算是 AlphaGo alpha 版,裡面 CNN、TD、MCTS 都有。還不到十年,棋王就已不敵...

更早一點的研究,還有 [11]-[14]。

-----

References

[1] 創造AlphaGo的台灣「土博士」,他們眼中的黃士傑 _ 端傳媒 Initium Media
https://theinitium.com/article/20170116-taiwan-AlphaGo/

[2] 柯潔為何說「輸得沒脾氣」?8 個問題解讀人機大戰第一局 - INSIDE 硬塞的網路趨勢觀察
https://www.inside.com.tw/2017/05/23/analyzing-alphago-versus-ke-jie-round-1

[3] 應用於電腦圍棋之蒙地卡羅樹搜尋法的新啟發式演算法 SC Huang - 臺灣師範大學資訊工程研究所學位論文, 2011

[4] 2009_Backpropagation modification in Monte-Carlo game tree search

[5] AI從頭學(九):Back Propagation
http://hemingwang.blogspot.tw/2017/02/aiback-propagation.html

[6] 2016_Mastering the game of Go with deep neural networks and tree search

[7] 2015_Move evaluation in Go using deep convolutional neural networks

[8] 2014_Teaching deep convolutional neural networks to play Go

[9] 1996_The integration of a priori knowledge into a Go playing neural network

[10] 2008_Mimicking go experts with convolutional neural networks

[11] 2003_Local move prediction in Go

[12] 2003_Evaluation in Go by a neural network using soft segmentation

[13] 1996_The integration of a priori knowledge into a Go playing neural network

[14] 1994_Temporal difference learning of position evaluation in the game of Go