转置卷积详解

转置卷积详解转置卷积详解  前面文章对卷积做了讲解,感觉既然重新整理,就将系列概念整体做个梳理,也算是将自己知道的所有东西拿来献丑把。  转置卷积(TransposedConvolution)是后来的叫法,一开始大家都是称逆卷积/反卷积(Deconvolution),这个概念是在图像分割任务中被提出来的,图像分割需要逐像素的操作,对每一个像素做一个分割,将其归类到不同的物体当中。  这个任务大家很自然…

大家好,又见面了,我是你们的朋友全栈君。

转置卷积详解

  前面文章对卷积做了讲解,感觉既然重新整理,就将系列概念整体做个梳理,也算是将自己知道的所有东西拿来献丑把。
  转置卷积(Transposed Convolution)是后来的叫法,一开始大家都是称逆卷积/反卷积(Deconvolution),这个概念是在图像分割任务中被提出来的,图像分割需要逐像素的操作,对每一个像素做一个分割,将其归类到不同的物体当中。
  这个任务大家很自然的想要使用卷积神经网络来完成,那就得先使用卷积神经网络提取特征,但是卷积神经网络中的两大主要构件,卷积层和下采样层会使得图像的尺寸不断缩小。这个就与逐像素的分类不符,因为逐像素分割的话是需要输出和输入大小是一致的。
  针对这个问题,有人提出了先使用卷积核下采样层逐层的提取特征,然后通过上采样再将特征图逐渐的恢复到原图的尺寸。而这个上采样一开始就是通过反卷积来实现的。如果说卷积核下采样的过程特征图是变小的,那么上采样之后特征图应该变大。
  我们应该熟悉卷积的输出尺寸公式 o u t = ( F − K + 2 P ) / s + 1 out=(F-K+2P)/s+1 out=(FK+2P)/s+1,其中F表示输入特征图的尺寸,K表示卷积核的尺寸,P表示padding,S表示卷积的步长。我们都通过这个公式来计算卷积的输出特征图尺寸。举例来说明,一个4×4的输入特征图,卷积核为3×3,如果不使用paddng,步长为1,则带入计算 o u t = ( 4 − 3 ) / 1 + 1 out=(4-3)/1+1 out=(43)/1+1为2。
  我们已经在im2col算法的介绍中讲解了卷积的实现,实际上这个步骤是通过两个矩阵的乘法来完成的,我们不妨记为 y = C x y=Cx y=Cx,如果要上采样,我们希望给输出特征图乘一个参数矩阵,然后把尺寸还原回去,根据数学知识,我们给特征图矩阵 y y y左乘一个{C^T},就能得到 C T y = C T C x C^Ty=C^TCx CTy=CTCx C C C的列数等于 x x x的行数, C T C C^TC CTC的行数和列数都等于x的行数,乘完之后,得到的结果与 x x x形状相同。这就是转置卷积名字的来源。有一些工作确实是这样实现的。
  我们也能很自然的得出结论,我们不需要给输出特征图左乘 C T C^T CT,显然只要和这个矩阵形状相同,输出的结果就和原特征图尺寸相同,而且这个操作同样可以使用卷积来实现,那我们只要保证形状一致,然后参数我们可以自己训练,这样尺寸的问题解决了,而且特征的对应也有了,是可以训练的,一举两得。
  im2col讲解的内容,卷积是 ( C o u t , C i n ∗ K h ∗ K w ) (C_{out},C_{in}*K_h*K_w) (Cout,CinKhKw)的卷积核乘 ( C i n ∗ K h ∗ K w , H N ∗ W N ) (C_{in}*K_h*K_w,H_N*W_N) (CinKhKw,HNWN)的特征图,得到 ( C o u t , H N ∗ W N ) (C_{out},H_N*W_N) (Cout,HNWN)的结果。现在对卷积核做一个转置 ( C i n ∗ K h ∗ K w , C o u t ) (C_{in}*K_h*K_w,C_{out}) (CinKhKw,Cout) ( C o u t , H N ∗ W N ) (C_{out},H_N*W_N) (Cout,HNWN)得到一个 ( C i n ∗ K h ∗ K w , H N ∗ W N ) (C_{in}*K_h*K_w,H_N*W_N) (CinKhKw,HNWN)的特征图。
  除了以上内容这里还有一点其他需要补充的东西,比如在caffe中除了im2col函数之外,还有一个函数是col2im,也就是im2col的逆运算。所以对于上面的结果caffe是通过col2im来转换成特征图的。但是col2im函数对于im2col只是形状上的逆函数,事实上,如果对于一个特征图先执行im2col再执行col2im得到的结果和原来是不相等的。
  而在tensorflow和pytorch中,这一点是有差异的,两者是基于特征图膨胀实现的转置卷积操作,两者是是通过填充来进行特征图膨胀的,之后可能还会有一个crop操作。之所以需要填充,是因为想要直接通过卷积操作来实现转置卷积,干脆填充一些值,这样卷积出来的特征图尺寸自然就更大。
  但是两者从运算上来讲都无法对原卷积进行复原,只是进行了形状复原而已。
  到了最后就可以讨论形状的计算了,转置卷积是卷积的形状逆操作,所以形状计算就是原来计算方式的逆函数。 o u t = ( F − K + 2 P ) / s + 1 out=(F-K+2P)/s+1 out=(FK+2P)/s+1这个函数的逆函数反解一下,其中mod是上公式除s的余数。
在这里插入图片描述
  就是通过这个公式来计算反卷积的输出,因为mod是除s得到的余数,也就是说mod是小于s的,当s=1的时候只能为0,一个解,当 s > 1 s>1 s>1时,就会有多个解,这个时候,指定了好参数之后,pytorch和tensorflow就会对特征图四周进行填充,然后再做卷积。这个公式里有一个乘s,这个怎么实现,就是对特征图进行膨胀的操作。在特征图两个cell之间,填充上s-1个值,膨胀之后特征图就会变成 ( o u t − 1 ) s + 1 (out-1)s+1 (out1)s+1,这个时候还需要根据mod来进行外部的填充。做一个卷积,然后事实上这里还会继续根据特征图的输出尺寸做填充,这个计算就更加复杂一些,但是我的目的主要是为了把膨胀这里讲的通透,下面用一张图来说明这种膨胀,如下图是s=2的膨胀。
特征图膨胀示意图
  大家可以自行把这个公式和tf或者pytroch的接口的参数对应上,因为我不想讲接口,所以这里不赘述。为了进一步方便理解,我还画了下面一张图。
操作解析

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/151928.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • Js中sort()方法

    Js中sort()方法

  • win7 powershell版本过低问题

    win7 powershell版本过低问题

    2021年10月28日
  • 简述计算机的发展史和应用领域_简述计算机的发展史

    简述计算机的发展史和应用领域_简述计算机的发展史计算机发展史`分类和应用领域第1章计算机基础知识计算机发展史、分类和应用领域数值、字符、汉字和图像编码计算机组成和原理计算机安全基础知识1.1计算机概述计算机技术的迅猛发展,促使人类走向丰富多彩的信息社会。信息时代的生产方式和生活方式具有数字化、集成化、智能化、移动化、个性化等特点。1.1.1计算机的发展世界上第一台电子数字式计算机ENIAC于1946年2月15日诞生在美国宾夕法…

    2022年10月11日
  • csdn怎么查看自己的积分(手机号积分怎么查)

    这里直接给出地址:查看CSDN积分会自动跳转到自己的积分信息页面参考:https://blog.csdn.net/wu387894541/article/details/106994289/

  • Java中Scanner的用法:单行/多行输入

    Java中Scanner的用法:单行/多行输入Java的Scanner用法,主要用于算法笔试时的控制台输入问题:解决这种情况下的Scanner输入:单行,多行,数值,字符串最好解决的情况单行输入多个字符串多行输入多个字符串问题:解决这种情况下的Scanner输入:单行,多行,数值,字符串平时写程序一般不用Scanner,线上笔试的时候,各大公司热衷于Scanner输入。平时用LeetCode刷题也不会用到,结果多次在笔试时候卡在Scan……

  • rocketmq长轮询原理_java长轮询

    rocketmq长轮询原理_java长轮询什么是长轮询whypush:broker推,优势:实时,长链接,不会频繁建立链接;缺点:慢消费,broker负载过高pull:客户端拉,优势:消费数量,速度可控;缺点:间隔难设定,过短,频繁网络请求,无效请求,过长:延迟消费为了保证实时,我们可以把拉取消息的间隔设置的短一点,但这也带来了一个另外一个问题,在没有消息的时候时候会有大量pull请求,为了解决这个问题,就采用了本文讲解的长轮询技术。轮询是以固定间隔请求服务器,它不在乎这次请求是否能拉取到消息。而长轮询,它请求的服务端,会等待一

    2022年10月14日

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号