deeplab-v1论文解析
3 S1 S( S+ F& r! M! c% W5 [8 j会议论文ICLR2015! C. F9 U* G% J: |- R4 h
用深度神经网络和全连接条件随机场解决图片语义分割问题
2 n# ?! u, J. B% h
9 |/ H& j& H* s; C: X- ^; G1 V, B
用深度卷积网络和全连接条件随机场解决图片语义分割问题
! L4 d0 U1 @3 x$ j, s6 f& ?: A' a* M
' G Y7 @+ Y% H5 d8 n" ?
3 |3 I+ ?" X- F
; g. u2 ^& d. W- i2 i: U
" s7 f9 z0 _; e0 @+ {7 A
% {+ {! j7 s2 q摘要
$ }- L7 H U9 O# ~8 J9 |! T: ^1 Q! Q, ^9 x4 o$ V
深度卷积神经网络(DCNNs)在最近的高级别视觉任务上,都取得了最佳的效果。
# O0 |" A# s8 {+ A2 q+ Z比如图像分类,目标检测。
% \/ W. B: F/ d本文联合深度卷积神经网络和概率图模型解决像素分类的问题(也叫做语义分割)% Z. l- _! k" T2 ?- t, V
实验表明,利用DCNNs得到的最后一层特征,并不足以得到较好的分割结果。! C: n( x- s3 G" p
这是因为DCNNs具有的特征不变性导致的。
$ [" ?8 E3 p0 Z( b3 \& O分类问题训练出来的DCNNs特征往往具有位置不变性。
2 D' Y# m9 b& Z( B- a# @因为无论图片山的目标位置在哪里,图片山所有像素都需要对应一个类别。
$ z. R$ A. N: g" x为了解决DCNNs的位置不变性对分割问题所带来的问题,我们在DCNN的最后一层之后加了一个全连接的条件随机场(CRF)." X1 v9 Q$ d- v% p1 q% w P+ ^
实验表明,我们提出的"DeepLab- CRF"系统,精度超过之前的所有方法。6 d* K1 K: b- {1 b. b8 }4 m& P& |
在PASCAL VOC-2012的分割数据集的测试集上,我们达到了71.6%的精度。
+ u# e6 B" |; Y8 s论文主要展示了我们是如何获取这样的精度的:通过精巧的网络结构设计和对能够提取更加密集特征的空洞卷积的新应用。
, \7 i% V; ]; L8 r3 i- G
! o3 l& G3 @+ r! E; d1 @/ E
* b( Y8 i/ K; w) @+ m介绍
, a+ F" w$ V+ [2 B& E
8 P. w* {2 q: R我们的"DeepLab“系统的主要创新有三:- }0 @- i4 c* k9 }5 e
3 p$ |+ D, t6 f t' `: b( C5 f- ]
- 速度:因为使用了空洞卷积,我们的DCNN的速度达到了8 fps,不过要注意,当测试的时候,这其中的CRF就需要0.5秒.: x" D: G+ I" ^
- 准确:在 PASCAL分割任务上,我们取得第一名,比第二名高7.2%.( i# f8 ^/ [2 E6 e* S6 R! ]5 g9 H
- 简介: 我们的系统是由两个相对比较容易写代码的模块构成的:DCNNs和CRFs.
Y6 h- z2 o. N# v8 U) } 相关工作
4 m# Z0 y T: J, C+ n6 u( Y( @+ o
我们与其他论文的主要不同就是把对像素进行处理的CRF和DCNN结合在一起时,用DCNN直接作为CRF中已经计算好的一项:”一元项“。
0 ]- E1 ^7 {* n5 g0 E+ n: i一些方法把CRFs用作DCNN的重排序系统。
2 c" i1 T/ o" L% g一些方法把超像素作为CRF的节点,然后用图割办法来进行推理。
/ i( `3 j ?* W9 K6 V; M6 r( a这种方法的误差主要在超像素边界的计算上,当然,他们都没有使用长距离的超像素信息来估计像素类别。1 b; C( L& R: o" u8 ?& E# h
我们的方法不再估计超像素,而是估计每个像素,并且有用到距离比较远像素来估计每个像素,还可以用CRF的前向推理去直接优化一个DCNN损失函数。
- O# o s p0 c1 r我们注意到,现有大量的关于条件随机场在图像分割上的应用,但是我们是第一个相当高效的将全连接条件随机场应用在了图像的语义分割问题上。
: O+ ?) [, o# ?5 K! M" w在第一个版本的代码发布之后,我们注意到了其他两个小组也在研究将DCNNs和CRFs结合在一起使用。其中一个小组专注做出更好的分类,另一个小组展开了CRF的平均场地推导过程,把整个系统转化为端到端的可训练的前馈网络。: T* h4 n+ Y- Q% V7 d9 O
将卷积神经网络应用在密集图片标注上
" p) ?1 b% J: ]+ }
( ~2 I8 W. K) Q v2 d接下来我们会详细描述我们是如何把VGG-16从一个分类网络转化为一个高效且精准的语义分割的密集特征提取器的。
5 r- d$ X' V6 t7 h4.1 空洞卷积:高性能的空洞,密集滑窗特征提取器. T# n) H8 j& M# @" j6 ]
3 t. k5 Q: D# B" o2 E3 U) t; p
& D& G) ~8 s: ]1 D
/ s$ a( K2 W& A8 V
H5 |! J$ v; t9 i) C3 X; c5 J, n. L# r# Q4 |6 M' Q
) ?/ Q$ L+ q* M4 _) B9 \; ?' Q$ y) b
第一步:把VGG-16中的所有的全连接层都转化为卷积层。然后将输入模型的图片不再缩放到224x224,而是图片的大小不做变化,直接输入到网络中。这时我们能够得到相对于原图缩小32倍后的像素得分图。
* ]0 @* G' `2 v. g% c第二步:由于32倍太小,所以我们想办法得到缩小8倍后的像素得分图。我们跳过最后两个maxpooling的下采样部分(将其stride由2变为1),并且把他们之后的3个层卷积层的滤波器变成dalated rate =2的空洞滤波器。然后把第一个全连接层转化而成的7x7的卷积层,并将此层的滤波器变成dalited rate=4的空洞滤波器。# Z: o5 h8 C9 H- h. P: r8 n$ R
具体实现的话,我们有一种等效的方法。我们可以保持滤波器不变的同时,对特征图采样。当dalited rate=2时,就采样2份特征图来做标准卷积。当dalited rate=4时,就采样4份特征图来与原来滤波器做标准卷积。如图1所示。
3 _9 _: B" n4 ^8 E# S- {
2 W ?; f; \ E. {$ `& d9 Y
" j& B7 r6 o" j: N' N2 o5 c# f7 D$ S7 |7 z+ {! ^4 C) a1 ^$ a
; `" c k" ~2 J- E5 P, F% W$ K
7 r5 x- ?' s- J6 p- X5 @: }( r
& B- @1 d l- k8 E: [
空洞卷积这个思路,在1999年的连续小波变换里,已经被提出来了。) r$ E, ]( W2 y4 b6 \0 V, t; `3 ]3 V3 z" W
我们用caffe框架中的im2col将特征图采样,然后进行标准卷积,从而实现对空洞卷积的等效。这个操作在我们计算任意dilated rate卷积的时候,都非常方便。im2col是将多维度的图像特征图转化为如图1中所示的向量。- C ~. j4 {( X% P5 z! c* j
我们在预先训练的VGG-16网络上微调。将网络最后输出1000个channel换为21个。损失函数就是每个像素位置上的交叉熵之和。每个像素的loss在总loss中的权重是相同的。网络输出的目标特征图是有标注的图下采样8倍得到的。用SGD优化。" U0 r3 @8 {# N9 W2 U) r
# _8 Y% J/ H! X0 \, s
' S. \; v$ g' G2 ~9 U4 p6 y) ]& _& ~3 S6 {: I
8 g+ l" g3 d5 I- u2 s6 W3 t
2 s$ d$ M6 J* C+ ^
2 D1 e8 h8 C, Q) K测试的时候,我们需要原图大小的得分图。如图2所示,使用简单的双线性上采样将得分图放大8倍。注意到,FCN中并没有使用空洞卷积,生成了非常粗糙的32倍下采样得分图。但是我们得到的8倍下采样得分图比较平滑精细。因为FCN的32倍下采样得分图非常粗糙,所以FCN才使用了可学习的上采样技术,这个可学习的上采样技术显著地增加了网络的复杂度和训练时间。我们并不需要使用上采样技术,微调我们的网络只需10个小时,而训练FCN网络需要数天。4 D/ y! }; i w1 K% F# q
4.2控制卷积网络的感受野的大小以及密集计算的加速+ _9 x6 I: o( U4 J
我们的网络之所以成功得到密集得分,还有一个要素:精确地控制网络的感受野大小。
! w) |3 \" \. j# P3 W5 k一般从image net训练出来的DCNN具有比较大的感受野。
) |! ?. o+ ^! H2 p2 g比如全卷积化后的VGG-16的感受野为224x224和404x404。
$ l8 {. r! K, ?转化为全卷积的VGG-16,第一个全连接层有4096组7x7的权重,这个层的计算量就是我们这个网络计算量的瓶颈。$ C1 v/ _0 {# {8 c3 b: o1 k
解决这一层计算量大的问题:把卷积核变成4x4(or 3x3).这样就把感受野降低到了128x128或者308x308,这一层的计算量降低2-3倍。
; e9 S3 z' C8 w3 s0 c8 C( c, _在Titan GPU和caffe上,这个VGG网络十分快:一个306x306的输入图片,产生39x39的密集特征得分图的fps是8.训练时的fps=3.
, S5 v) N( X8 e, u我们将全连接处的4096减少到1024也成功了,没有降低性能,计算量进一步减少。
/ @$ W/ H$ ^) v8 A! O% v' x& I2 Y用一个小的网络代替vgg,测试的fps能到达到30.3 P' w0 d6 k( W' P9 g$ y
vgg的感受野具体计算和DeepLab的感受野具体计算可参考这里:https://www.toutiao.com/i6963945583077982731/?group_id=6963945583077982731: _7 S, R' E& O/ ]; C! |0 R/ S. c" E
全连接条件随机场和多尺度预测:细节轮廓恢复
! I3 {0 l1 I) _" V9 W7 e9 \
+ h( `1 m7 |) j$ r: D- k: l
4 Q: \) f ~" u0 g$ A2 O, ]. k k$ _% R0 J- x
, I& K+ A& w4 ~* ^/ Y
+ {' }0 T+ w. e: U) q
" L0 ]3 {0 A4 R, y5.1 用图片分类网络给出精确位置得分是相互矛盾的- V. _; [- Z2 y& _3 n2 g
如图2所示,DCNN可以可靠地给出每个像素的粗分类结果,但是不能给出准确的结果。在卷积神经网络里,整张图片的分类准确度和与对每个像素分类的准确度是互斥的:较深的具有多层max-pooling的被证明在整张图片的分类问题上表现更好,同时这样的网络具有很好的位置不变性和较大的感受野,造成在最后一层的每个像素位置给出准确的得分比较困难。
# I" t- F s1 ^: K+ o, s+ t* n: w K解决这个问题,有两个方向。第一个是利用多层信息的跳层连接来更好的估计目标的轮廓信息。第二个方向是采用超像素思路,本质上把问题转化为一个更简单的分割任务。6 f; b' C; O5 j
下一小节中,我们提出一个新的方向,结合使用了CDNNs和进行精细分割的全连接CRFs,并且取得了非常好的效果,比之前的方法要准确。
+ F/ U/ s. [ V' {9 o5.2 全连接条件随机场进行精细位置分类1 z" L( u! ]5 D
一般来说,CRFs被将分割遮罩图上的噪声点去掉。这个模型里有个能量项,这个能量项跟邻域的像素点有关,两个像素在距离上比较接近时,其分类就倾向于相同。短距离CRFs的主要作用是清除弱分类器带来的这些噪声点样的错误,这些弱分类器通常用的是手工设计的特征。 a7 Y% V/ b& n$ }. W
DCNN分类器并非弱分类器,它给出的结果非常平滑没有噪声点错误。在这种情况下,再使用短距离CRFs不合适,我们的目标是恢复细节,而不是平滑分割结果。& \, Z, ~/ y) k5 @' _9 i4 l
使用对比度增强的能量函数的短距离CRFs也可以,就是求解太困难。
; P2 b; S- R n我们使用全连接CRF模型,来避免短距离CRFs的缺点。能量函数为:3 i/ f5 ~4 U" ~, v# n
# j# ]$ f( E% T) K, Ix是每个像素对应的类别。一元势函数为,由DCNN算出,它只像素的类别是时的概率。, S- n. y6 Q' ^2 C9 V+ s' T
) o$ R. T2 c$ X/ Q& }- h9 T1 h
3 W2 w9 V( }. L7 U1 G3 ~
这些公式要注意的是,这里的x是个序列,是指一整幅图片上每个像素的类别构成的矩阵。
( n: E* v. V, `% v: c" \是位置i处的类别。
3 F2 ]- W8 }* |! e* B( A更多全连接CRFS参考这里; d8 d4 k( Y* D/ _( a8 d
5.3 多尺度预测
/ A% s* W( i% I+ D最近的论文都进行了多尺度预测,所以我们也搞,毕竟多尺度可以提升分割精度。) c2 N( v3 c: c: ]( i/ n( ]
我们将输入图片后面接上一个两层的MLP(3x3,channel=128,1x1,channel-128)
7 v5 ~& k, E% c" H6 |" x# r将前四个maxpooling后的层都接一个两层的MLP,9 |' o. ^1 l$ C* ^ G( m. K
然后将这个五层的 feature map都在channel维度连接到网络的最后一个特征图上。
7 ?3 h7 U, U! x( ~8 O: D0 _* F所以这个输入到softmap的特征图,在channel维度上增加了5*128=640channels.
! Q3 q! Z7 w- T% u$ |3 T$ |疑问:特征图直接在channel维度上连接,那么特征的大小不一致该如何解决?输入softmax的特征图大小都应该是8倍下采样的,那么原图需要8倍下采样?这个两层的 MLP并不对维度进行下采样,所以,图片应该输入MLP前进行8倍下采样了。
/ a# r9 r5 D; T4 \多尺度新增加了5个2层的 MLP,他们的训练与主网络分开训练,待主网络完成后,单独微调。
$ |3 F* j) ?3 ^ A1 Q2 [虽然多尺度思路带来了一些提升,但是其提升不如CRF带来的提升大。如下表所示:
3 u5 C4 X8 E' ^' h7 f3 R* Y$ _! y+ k7 C! P
* q; H$ z K# _% q% c
# ?& E, g0 O2 k
! L9 j4 |% }3 o& N实验结果分析评价
, p% d l/ O# J1 w
5 h2 H) d& o* s% \+ A& w数据集
5 W1 l ^" e3 g. R7 } PASCAL VOC 2012分割数据集,20类待分割物体,20个物体之外,其他像素为背景。数据集分为三部分:训练集,验证集,测试集,分别含有1464,1449,1456张图片。我们对数据集进行了数据增强,增强后一共10582张图片。评价办法是mIOU,一共21类,每个类别一个IOU,一共21个IOU,对这21个IOU取平均就是mIOU。
4 ~* q, _! Y o0 B6 S* f( O
. o. p0 G" {& J% N; b8 H5 C
7 \$ o. A; _8 `) N) h+ G训练
& C) U0 ?% U, B% x) B( f0 w我们使用分段训练,分别训练DCNN和 CRF,认为CRF的一元势函数由DCNN提供,并且在CRF训练时是固定不变的。4 B; {) L8 [2 b9 }2 o8 i( R: k
对于DCNN的训练,我们使用了VGG-16的预训练结果。网络改为Deeplabv1后,我们对网络进行了微调。mini-batch =20,init lr=0.001,最后一个层的init lr = 0.01,每过2000个迭代步骤,学习率乘以0.1.SGD中的 momentum为0.9,L2正则化系数为0.0005.6 G( H8 V& O( W; [
训练好DCNN后,我们开始CRF模型的训练。使用交叉验证法。这里一共需要学习5个参数。我们先固定两个参数,然后搜索其他3个参数。网络搜索。
. k6 x! V0 Q+ q# R+ ?- K2 ]% z. @& t b% \
o$ P4 q, b6 L" j
6 f1 w; b" D3 k7 @7 e' R
- e c( `, i' Q' |6 G1 x采样交叉验证和网格搜索来求取CRF的参数
1 l2 W( h5 \0 {' Y3 y2 U4 z; a# c) v' E/ g& j8 ?7 I ]2 e, {* X4 o0 f. A4 N, Z
/ e9 q; t1 k7 R- e9 G
在验证集上进行测试/ O$ E9 N7 u3 O; g" X8 M
使用CRF带了4%的提升。下图展示了使用CRF前后的结果。
- M: a: V3 F' I' a* h& D7 }# ^, j6 h: M+ b
9 N5 B0 I# N* M! z; m0 L# S& Y1 _ u( i- v/ g# I" ^8 ]) n* G7 r
e4 i5 \. D& R- _2 G& [一个样本3列:原图,DCNN结果,DCNN-CRF结果
# ~& K- j/ t9 G' V( B; C/ B" e( @. X, N! l3 s) s* z
7 e0 U! J% } p. Q2 `上图最后三行是分割失败的例子。
; Z) a8 s% v; N: ^. M+ M5 `# w) Q3 U4 p
9 N: {2 Q7 i) T/ p8 I' ^
多尺度特征
w% ]! _, p8 j, n2 j% K/ f多尺度特征提升1.5%。效果如下图:; i K* X. f2 f& B9 ^
, v& J4 ?8 ]" K2 k# b
' m4 A( X8 ^% [( N: \9 {; {
/ d+ H# B6 D. I' g1 p* f
4 y& \- R* F* `- N$ l# g% [第一行DCNN,第二行多尺度
& M( u5 u8 H2 |6 S: j6 ^7 k, z" Z9 x7 }5 Z. C& g) P
9 b2 E8 i6 P- B# U感受野/ F2 n7 p' r, O B9 T! {6 Q& ^
空洞卷积可以通过膨胀系数精确控制感受野。如下图表* d3 K. F3 n! N% s0 }' e. ~
7 Z! h) m8 a% G: g' W9 o) R
, G4 v1 n& p; |! F
) P( s7 x5 t9 K' J) f! \
% i# s+ B) e- S4 P% n2 z, f; v: u: A
$ y# J1 P6 G5 | P7 O+ Y9 C8 F9 _$ U4 A% f7 b
% N/ A8 p$ n' ]: X
# T: u8 j' B7 x' b4 g% K6 N; Y, Y6 {/ k8 d: V4 B
( v+ ~' u' |* l0 _+ ?
我们在第一个全连接层上,实验了不同的卷积核大小,不同的膨胀系数。
: N2 @( k' z5 F$ ]7 ]1 v如果表2所示,我们将卷积核修改为3x3 膨胀系数改为12,并且把channel数由4096改为1024后,性能与kernel size=7时一样,但是速度提升了3.36倍。7 l+ I; A1 L% {4 h7 I/ o, O' I
6 k: _- N/ F, ~" h' C* Q
7 N, f' \! U7 {9 J% `2 ]3 ]: s目标边界的平均像素交并比
" B2 ~( W6 C7 V0 W6 X2 m2 \- g) W& T为了评价目标边界像素的准确率,我们把边界周围的像素单独计算IOU,如下图所示:7 Q% C$ l3 ?7 n- m* Y
0 l0 X% V; k5 K( E( ]! H e( ?: ?7 b
- C) k; {* i, A0 {5 u$ Y1 O, O
% }& a: H, O/ B& S. [
使用多尺度和CRF后,可以显著提升边界处像素的准确性。
( \! N# w/ ?5 F2 i5 L4 f" `) q与最好的模型进行比较
( r0 Q5 P- o- l- ?$ @" N O9 F# c! g- E
" d' _8 r9 L1 `; Z% ?# P我们的模型是deeplab-CRF,我们与FCN-8s,TTI-Zoomout-16模型在'val'数据集上进行了比较。如上图所示,最后一行的我们模型的结果。第三行左边是FCN-8s的结果,右边是TTI-Zoomout-16的结果( N. y5 B4 c/ x3 T1 Q) T' J
我们的模型可以重现么?& k3 m, Q4 ^5 Q/ p# b
我们是在excellent Caffe架构上实现的。我们开源了代码,配置文件,训练得到的模型。需要重现的话,可以访问这里:https://bitbucket.org/ deeplab/deeplab-public." R W5 ?; W6 @& ?; Q' o
4 Y9 ~6 @% I& p, k6 P4 n7 n' M8 p2 B1 W
测试集上的结果! n- I$ q) O; Q
& W @7 O9 {" m# F+ f; y; W0 \
5 `, _7 Z3 s _! ~1 Z5 ]5 Q
: }: X* |, |7 W' N3 r
* ^# b4 N$ z* g9 p* \- M+ \, e+ ` l/ A
1 q' D7 Q" Q& U% T) [" Z
如上图,最好的模型是DeepLab-MSc-CRF-LargeFOV,其mIOU是71.6%.
* M5 o) `7 W- o/ |讨论
R+ o1 g7 P0 N2 I$ b. ?% w3 `2 B
& G3 @1 U5 V) N4 |+ p9 v1 [2 `# x我们的deeplab-crf主要是借鉴了深度卷积神经网络和全连接条件随机场的思路,将分割做得比较准确和快速。$ A' j$ x' M' B# T
后面打算把模型的两部分合二为一,把模型做成端到端。7 _, c' P7 D3 Y, Z8 d7 G9 L L/ J' M
后面打算在更多的数据集上做一下实验,甚至在三维深度图上,或者是视频上。. o; \$ {2 C; {5 X8 {4 m
最近我们将实验用bbox或者轮廓线来训练。! D4 [# v6 Z1 C {( T
我们使用了深度卷积模型和概率图模型。所以我们会进一步他们之间的关系,开发他们之间在分割任务上的潜力。
7 S5 x! a4 i7 K _感谢:
_9 m2 N! j/ E, @: k: b! X# O; ^, L: n1 [2 A( b
/ ]9 o* e, u% v, b, C, z: `0 R6 x* g
/ b5 t: {- f0 N" D
7 \* O/ w$ ?3 B* P" ^
除了感谢基金会,还感谢英伟达公司捐赠的GPU,感谢论文审稿人的详细意见和建设性反馈。
0 Q Y1 o0 D1 O几个版本的论文,为了读者读起来更方便,我们给出了我们论文的几个版本:- a0 k1 {' Z, L- T) t
- I/ }2 Q8 S) F
$ i6 p4 p7 k4 N
. n, {. Y. U3 Y3 A1 z
( R O; _ ^0 ^) t5 h2 ^9 E9 ^" L% a. [0 k
. i; V. r3 [$ R% V2 F+ O
7 ~6 {# o, y& @( ^) O& Y参考文献% p7 U$ Z* l/ r( [
. g3 J. b/ ^3 V) i6 P0 Y" o" C$ b7 o! }4 d* {
! C1 q+ _9 z3 U" W% P2 N) R0 E) n% [% k, A! Y
0 h$ ~, M8 a! V( q2 O: E
" S: k. A! I5 \% Y- s1 A8 K
5 t' C y7 a+ h7 y
7 z. z: t: d c- }6 d0 O4 t# @0 Q2 ^- a/ Q3 g
, ?, F, D1 Z2 t |