论文精读——CenterNet :Objects as Points[通俗易懂]

论文精读——CenterNet :Objects as Points[通俗易懂]论文题目:ObjectsasPoints论文地址:https://arxiv.org/pdf/1904.07850.pdf发布时间:2019.4.16机构:UTAustin,UCBerkeley代码:https://github.com/xingyizhou/CenterNetAbstract目标检测识别往往在图像上将目标以轴对称的框形式框出。大…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE使用 1年只要46元 售后保障 童叟无欺

论文题目:Objects as Points

论文地址:https://arxiv.org/pdf/1904.07850.pdf

发布时间:2019.4.16

机构:UT Austin,UC Berkeley

代码:https://github.com/xingyizhou/CenterNet

 


Abstract

       目标检测识别往往在图像上将目标用矩形框形式框出,该框的水平和垂直轴与图像的水平和垂直向平行。大多成功的目标检测器都先穷举出潜在目标位置,然后对该位置进行分类,这种做法浪费时间,低效,还需要额外的后处理。本文中,我们采用不同的方法,构建模型时将目标作为一个点——即目标BBox的中心点。我们的检测器采用关键点估计来找到中心点,并回归到其他目标属性,例如尺寸,3D位置,方向,甚至姿态。我们基于中心点的方法,称为:CenterNet,相比较于基于BBox的检测器,我们的模型是端到端可微的,更简单,更快,更精确。我们的模型实现了速度和精确的最好权衡,以下是其性能:

MS COCO dataset, with 28:1% AP at 142 FPS, 37:4% AP at 52 FPS, and 45:1% AP with multi-scale testing at 1.4 FPS.

用同个模型在KITTI benchmark 做3D bbox,在COCO keypoint dataset做人体姿态检测。同复杂的多阶段方法比较,我们的取得了有竞争力的结果,而且做到了实时的。


Introduction

       目标检测 驱动了 很多基于视觉的任务,如 实例分割,姿态估计,跟踪,动作识别。且应用在下游业务中,如 监控,自动驾驶,视觉问答。当前检测器都以bbox轴对称框的形式紧紧贴合着目标。对于每个目标框,分类器来确定每个框中是否是特定类别目标还是背景。

One stage detectors 在图像上滑动复杂排列的可能bbox(即锚点),然后直接对框进行分类,而不会指定框中内容。

Two-stage detectors 对每个潜在框重新计算图像特征,然后将那些特征进行分类。

后处理,即 NMS(非极大值抑制),通过计算Bbox间的IOU来删除同个目标的重复检测框。这种后处理很难区分和训练,因此现有大多检测器都不是端到端可训练的。

 

       本文通过目标中心点来呈现目标(见图2),然后在中心点位置回归出目标的一些属性,例如:size, dimension, 3D extent, orientation, pose。 而目标检测问题变成了一个标准的关键点估计问题。我们仅仅将图像传入全卷积网络,得到一个热力图,热力图峰值点即中心点,每个特征图的峰值点位置预测了目标的宽高信息

模型训练采用标准的监督学习,推理仅仅是单个前向传播网络,不存在NMS这类后处理

论文精读——CenterNet :Objects as Points[通俗易懂]

 对我们的模型做一些拓展(见图4),可在每个中心点输出3D目标框,多人姿态估计所需的结果。

对于3D BBox检测,我们直接回归得到目标的深度信息,3D框的尺寸,目标朝向;

对于人姿态估计,我们将关节点(2D joint)位置作为中心点的偏移量,直接在中心点位置回归出这些偏移量的值。

论文精读——CenterNet :Objects as Points[通俗易懂]

 由于模型设计简化,因此运行速度较高(见图1)

论文精读——CenterNet :Objects as Points[通俗易懂]


Related work

        我们的方法与基于锚点的one-stage方法相近。中心点可看成形状未知的锚点(见图3)。但存在几个重要差别(本文创新点):

第一,我们分配的锚点仅仅是放在位置上,没有尺寸框。没有手动设置的阈值做前后景分类。(像Faster RCNN会将与GT IOU >0.7的作为前景,<0.3的作为背景,其他不管);

第二,每个目标仅仅有一个正的锚点,因此不会用到NMS,我们提取关键点特征图上局部峰值点(local peaks);

第三,CenterNet 相比较传统目标检测而言(缩放16倍尺度),使用更大分辨率的输出特征图(缩放了4倍),因此无需用到多重特征图锚点;

论文精读——CenterNet :Objects as Points[通俗易懂]

通过关键点估计做目标检测:

       我们并非第一个通过关键点估计做目标检测的。CornerNet将bbox的两个角作为关键点;ExtremeNet 检测所有目标的 最上,最下,最左,最右,中心点;所有这些网络和我们的一样都建立在鲁棒的关键点估计网络之上。但是它们都需要经过一个关键点grouping阶段,这会降低算法整体速度;而我们的算法仅仅提取每个目标的中心点,无需对关键点进行grouping 或者是后处理

单目3D 目标检测:

3D BBox检测为自动驾驶赋能。Deep3Dbox使用一个 slow-RCNN 风格的框架,该网络先检测2D目标,然后将目标送到3D 估计网络;3D RCNN在Faster-RCNN上添加了额外的head来做3D projection;Deep Manta 使用一个 coarse-to-fine的Faster-RCNN ,在多任务中训练。而我们的模型同one-stage版本的Deep3Dbox 或3D RCNN相似,同样,CenterNet比它们都更简洁,更快


Preliminary

        令I\epsilon R^{W\times H\times 3} 为输入图像,其宽W,高H。我们目标是生成关键点热力图\hat{Y}\epsilon [0,1]^{\frac{W}{R}\times \frac{H}{R}\times C},其中R 是输出stride(即尺寸缩放比例),C是关键点类型数(即输出特征图通道数);关键点类型有: C = 17 的人关节点,用于人姿态估计; C = 80 的目标类别,用于目标检测。我们默认采用下采用数为R=4 ;\hat{Y}_{x,y,c}=1 表示检测到的关键点;\hat{Y}_{x,y,c}=0 表示背景;我们采用了几个不同的全卷积编码-解码网络来预测图像 得到的\hat{Y}:stacked hourglass network , upconvolutional residual networks (ResNet), deep layer aggregation (DLA) 。

       我们训练关键点预测网络时参照了Law和Deng (H. Law and J. Deng. Cornernet: Detecting objects as
paired keypoints. In ECCV, 2018.)  对于 Ground Truth(即GT)的关键点 c ,其位置为 p \epsilon R^{2} ,计算得到低分辨率(经过下采样)上对应的关键点 \tilde{p}=\left \lfloor \frac{p}{R} \right \rfloor . 我们将 GT 关键点 通过高斯核 论文精读——CenterNet :Objects as Points[通俗易懂] 分散到热力图论文精读——CenterNet :Objects as Points[通俗易懂] 上,其中论文精读——CenterNet :Objects as Points[通俗易懂] 是目标尺度-自适应 的标准方差。如果对于同个类 c (同个关键点或是目标类别)有两个高斯函数发生重叠,我们选择元素级最大的。训练目标函数如下,像素级逻辑回归的focal loss:

论文精读——CenterNet :Objects as Points[通俗易懂]

 其中 论文精读——CenterNet :Objects as Points[通俗易懂] 和 论文精读——CenterNet :Objects as Points[通俗易懂]是focal loss的超参数,实验中两个数分别设置为2和4, N是图像 I 中的关键点个数,除以N主要为了将所有focal loss归一化。

        由于图像下采样时,GT的关键点会因数据是离散的而产生偏差,我们对每个中心点附加预测了个局部偏移 论文精读——CenterNet :Objects as Points[通俗易懂] 所有类别 c 共享同个偏移预测,这个偏移同个 L1 loss来训练:

论文精读——CenterNet :Objects as Points[通俗易懂]

 只会在关键点位置论文精读——CenterNet :Objects as Points[通俗易懂] 做监督操作,其他位置无视。下面章节介绍如何将关键点估计用于目标检测。


Objects as Points

        令论文精读——CenterNet :Objects as Points[通俗易懂] 是目标 k (其类别为 论文精读——CenterNet :Objects as Points[通俗易懂]  )的bbox. 其中心位置为 论文精读——CenterNet :Objects as Points[通俗易懂] 论文精读——CenterNet :Objects as Points[通俗易懂],我们用 关键点估计 论文精读——CenterNet :Objects as Points[通俗易懂]来得到所有的中心点,此外,为每个目标 k 回归出目标的尺寸 论文精读——CenterNet :Objects as Points[通俗易懂] 。为了减少计算负担,我们为每个目标种类使用单一的尺寸预测  论文精读——CenterNet :Objects as Points[通俗易懂] ,我们在中心点位置添加了 L1 loss:

论文精读——CenterNet :Objects as Points[通俗易懂]

 我们不将scale进行归一化,直接使用原始像素坐标。为了调节该loss的影响,将其乘了个系数,整个训练的目标loss函数为:

论文精读——CenterNet :Objects as Points[通俗易懂]

 实验中,论文精读——CenterNet :Objects as Points[通俗易懂] ,论文精读——CenterNet :Objects as Points[通俗易懂],整个网络预测会在每个位置输出 C+4个值(即关键点类别C, 偏移量的x,y,尺寸的w,h),所有输出共享一个全卷积的backbone;

 

从点到Bbox 

       在推理的时候,我们分别提取热力图上每个类别的峰值点。如何得到这些峰值点呢?做法是将热力图上的所有响应点与其连接的8个临近点进行比较,如果该点响应值大于或等于其八个临近点值则保留,最后我们保留所有满足之前要求的前100个峰值点。令 论文精读——CenterNet :Objects as Points[通俗易懂] 是检测到的 c 类别的 n 个中心点的集合。论文精读——CenterNet :Objects as Points[通俗易懂] 每个关键点以整型坐标 论文精读——CenterNet :Objects as Points[通俗易懂]的形式给出。论文精读——CenterNet :Objects as Points[通俗易懂]作为测量得到的检测置信度, 产生如下的bbox:

论文精读——CenterNet :Objects as Points[通俗易懂]

其中论文精读——CenterNet :Objects as Points[通俗易懂]是偏移预测结果;论文精读——CenterNet :Objects as Points[通俗易懂]是尺度预测结果;所有的输出都直接从关键点估计得到,无需基于IOU的NMS或者其他后处理。

 

3D 检测

       3D检测是对每个目标进行3维bbox估计,每个中心点需要3个附加信息:depth, 3D dimension, orientation。我们为每个信息分别添加head.

        对于每个中心点,深度值depth是一个维度的。然后depth很难直接回归!我们参考【D. Eigen, C. Puhrsch, and R. Fergus. Depth map prediction from a single image using a multi-scale deep network. In NIPS, 2014.】对输出做了变换。论文精读——CenterNet :Objects as Points[通俗易懂] 其中论文精读——CenterNet :Objects as Points[通俗易懂] 是sigmoid函数,在特征点估计网络上添加了一个深度计算通道 论文精读——CenterNet :Objects as Points[通俗易懂], 该通道使用了两个卷积层,然后做ReLU 。我们用L1 loss来训练深度估计器。

       目标的3D维度是三个标量值。我们直接回归出它们(长宽高)的绝对值,单位为米,用的是一个独立的head : 论文精读——CenterNet :Objects as Points[通俗易懂]  和L1 loss;

       方向默认是单标量的值,然而其也很难回归。我们参考【A. Mousavian, D. Anguelov, J. Flynn, and J. Kosecka.
3d bounding box estimation using deep learning and geometry. In CVPR, 2017.】, 用两个bins来呈现方向,且i做n-bin回归。特别地,方向用8个标量值来编码的形式,每个bin有4个值。对于一个bin,两个值用作softmax分类,其余两个值回归到在每个bin中的角度。

 

人姿态估计

       人的姿态估计旨在估计 图像中每个人的k 个2D人的关节点位置(在COCO中,k是17,即每个人有17个关节点)。因此,我们令中心点的姿态是 kx2维的,然后将每个关键点(关节点对应的点)参数化为相对于中心点的偏移。 我们直接回归出关节点的偏移(像素单位) 论文精读——CenterNet :Objects as Points[通俗易懂],用到了L1 loss;我们通过给loss添加mask方式来无视那些不可见的关键点(关节点)。此处参照了slow-RCNN。

        为了refine关键点(关节点),我们进一步估计k 个人体关节点热力图 论文精读——CenterNet :Objects as Points[通俗易懂] ,使用的是标准的bottom-up 多人体姿态估计【4,39,41】,我们训练人的关节点热力图使用focal loss和像素偏移量,这块的思路和中心点的训练雷同。我们找到热力图上训练得到的最近的初始预测值,然后将中心偏移作为一个grouping的线索,来为每个关键点(关节点)分配其最近的人。具体来说,令论文精读——CenterNet :Objects as Points[通俗易懂]是检测到的中心点。第一次回归得到的关节点为:论文精读——CenterNet :Objects as Points[通俗易懂]

我们提取到的所有关键点(关节点,此处是类似中心点检测用热力图回归得到的,对于热力图上值小于0.1的直接略去):论文精读——CenterNet :Objects as Points[通俗易懂] for each joint type j from the corresponding heatmap 论文精读——CenterNet :Objects as Points[通俗易懂]

然后将每个回归(第一次回归,通过偏移方式)位置 论文精读——CenterNet :Objects as Points[通俗易懂] 与最近的检测关键点(关节点)进行分配论文精读——CenterNet :Objects as Points[通俗易懂] ,考虑到只对检测到的目标框中的关节点进行关联。


Implementation details

       我们实验了4个结构:ResNet-18, ResNet-101, DLA-34, Hourglass-104. 我们用deformable卷积层来更改ResNets和DLA-34,按照原样使用Hourglass 网络。

论文精读——CenterNet :Objects as Points[通俗易懂]

Hourglass

堆叠的Hourglass网络【30,40】通过两个连续的hourglass 模块对输入进行了4倍的下采样,每个hourglass 模块是个对称的5层 下和上卷积网络,且带有skip连接。该网络较大,但通常会生成最好的关键点估计。

ResNet

Xiao et al. [55]等人对标准的ResNet做了3个up-convolutional网络来dedao更高的分辨率输出(最终stride为4)。为了节省计算量,我们改变这3个up-convolutional的输出通道数分别为256,128,64。up-convolutional核初始为双线性插值。

DLA

即Deep Layer Aggregation (DLA),是带多级跳跃连接的图像分类网络,我们采用全卷积上采样版的DLA,用deformable卷积来跳跃连接低层和输出层;将原来上采样层的卷积都替换成3×3的deformable卷积。在每个输出head前加了一个3x3x256的卷积,然后做1×1卷积得到期望输出。

Training

训练输入图像尺寸:512×512; 输出分辨率:128×128  (即4倍stride);采用数据增强方式:随机flip, 随机scaling (比例在0.6到1.3),裁剪,颜色jittering;采用Adam优化器;

在3D估计分支任务中未采用数据增强(scaling和crop会影响尺寸);

更详细的训练参数设置(学习率,GPU数量,初始化策略等)见论文~~

Inference

采用3个层次的测试增强:没增强,flip增强,flip和multi-scale(0.5,0.75,1.25,1.5)增强;For flip, we average the network
outputs before decoding bounding boxes. For multi-scale,we use NMS to merge results.




Experiments

论文精读——CenterNet :Objects as Points[通俗易懂]

 论文精读——CenterNet :Objects as Points[通俗易懂]

 论文精读——CenterNet :Objects as Points[通俗易懂]

 论文精读——CenterNet :Objects as Points[通俗易懂]

 论文精读——CenterNet :Objects as Points[通俗易懂]

文章网络结构细节信息见下图:

论文精读——CenterNet :Objects as Points[通俗易懂]

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/158748.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • SPSS学习笔记(五)卡方检验

    SPSS学习笔记(五)卡方检验和“SPSS学习笔记”的其他方法不同,卡方检验​​​​​​​是针对计数资料的目录一、卡方检验、Fisher精确检验(2*2)分析操作结果及分析二、卡方检验(R×C)分析操作结果及分析三、配对卡方检验分析操作结果及分析一、卡方检验、Fisher精确检验(2*2)分析:案例:该医生招募了100名研究对象,按照吸烟状态分为两组,其中吸烟者52人,不吸烟者48人,探讨吸烟与阿尔兹海默症之间的关联性需要先满足4项假设:假设1:存在两个二分类变量,

    2022年10月19日
  • 关于libsvm的PCA和 网格寻优「建议收藏」

    关于libsvm的PCA和 网格寻优「建议收藏」这篇博客写的很乱,只是先大致记录一下,后期行得通再慢慢补充。之前稍微整理了libsvm的内容,但是还有很多没搞懂,最近因为论文思路卡住了,所以又反过来弄libsvm因为看人家的论文,偏应用的方面,流程都非常完整,特征提取以后,一般有降维,有参数寻优,所以就很想实现这些功能,因为对比实验真的一点也写不下去了,头大…而且svm的工具箱非常的成熟了,除了常用的libsvm工具包,还有Libsvm-FarutoUltimate的工具包,这是一个基于libsvm的工具箱,增加了许多实用的功能:降维、参数寻优、可

  • 目标检测ssd算法实践教程_目标检测算法有哪些

    目标检测ssd算法实践教程_目标检测算法有哪些目录一、背景(基本介绍)二、网络结构三、具体过程1.defaultbox匹配2.损失函数3.数据增广4.AtrousAlgothrim5.NMS(非极大值抑制)五、性能评估优点:缺点:SSD算法的改进:DSSD1.DSSD网络结构图19VGG网络与ResNet网络的对比2.实现细节3.训练…

    2022年10月10日
  • jar包下载网站「建议收藏」

    jar包下载网站「建议收藏」1.这里可以查询POM信息和JAR包下载https://www.kumapai.com/open/query/?querytype=title&querykey=cglib1.https

  • python日志格式[通俗易懂]

    python日志格式[通俗易懂]python输出日志时的格式化输出日志时的格式化名称 说明%(levelno)s 打印日志级别的数值%(levelname)s 打印日志级别名称%(pathname)s 打印当前执行程序的路径,其实就是sys.argv[0]%(filename)s 打印当前执行程序名%(funcName)s 打印日志的当前函数%(lineno)d 打印日志的当前行号%(asctime)s 打印日…

  • 4个主要的map实现类介绍

    4个主要的map实现类介绍一、简单介绍map是键值对的集合接口,它的实现类主要包括:HashMap,TreeMap,Hashtable以及LinkedHashMap等。其中这四者的区别如下(简单介绍):HashMap:我们最常用的Map,HashMap的值是没有顺序的,他是按照key的HashCode来实现的,就是根据key的HashCode值来存储数据,根据key可以直接获取它的Value,同时它具有很快的访问…

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号