对角55.8厘米是多少寸,对角1.8米是多少寸

首页 > 经验 > 作者:YD1662022-10-30 00:08:25

公式2

其中Lco det和Lce det表示焦点损失,它们分别用于训练网络以检测角点和中心关键点。Lco pull是角的"拉"损失,用于最小化属于相同对象的嵌入向量的距离。Lco推动是角落的"推动"损失,用于最大化属于不同对象的嵌入向量的距离。Lco off和Lce off是'1-loss [10],用于训练网络分别预测角点和中心关键点的偏移。α,β和γ表示相应损失的权重,其中分别设置为0:1,0:1和1。Ldet,Lpull,Lpush和Loff都在CornerNet中定义,我们建议参考[20]了解详情。 我们使用8台Tesla V100(32GB)GPU训练CenterNet,批量为48。最大迭代次数为480K。 对于前450K迭代,我们使用2:5×10-4的学习速率,然后继续训练30K迭代,速率为2:5×10-5。

推论。在[20]之后,对于单尺度测试,我们将具有原始分辨率的原始和水平翻转图像输入到网络中。对于多尺度测试,我们输入原始和水平翻转图像,分辨率为0:6;1;1:2; 1:5和1:8。我们从热图中选择前70个中心关键点,前70个左上角和前70个右下角来检测边界框。我们翻转在水平翻转图像中检测到的边界框并将它们混合到原始边界框中。Soft-nms [2]用于删除冗余边界框。我们最终根据它们的分数选择前100个边界框作为最终检测结果。

4.实验

对角55.8厘米是多少寸,对角1.8米是多少寸(9)

对角55.8厘米是多少寸,对角1.8米是多少寸(10)

本实验在最具挑战性之一的 MS COCO 数据集上进行测试,科研人员选了一些比较有代表性的工作做了对比。

实验结果表明CenterNet获得了47%的AP,超过了所有已知的one-stage检测方法,并大幅度领先,其领先幅度至少达4.9%。Table2为CenterNet与CornerNet的单独对比。

最近目标检测方法在COCO数据集上基本在以百分之零点几的精度往前推进,因为coco数据集难度很高,而CenterNet往前推进了将近5个百分点。

同时,CenterNet的结果也接近two-stage方法的最好结果。值得注意的是,CenterNet训练输入图片分辨率只有511X511,在single-scale下,测试图片的分辨率为原图分辨率(~500),在multi-scale下,测试图片的分辨率最大为原图分辨率的1.8倍。而two-stage的输入图片的分辨率一般最短边也要>600,甚至更大,比如D-RFCN SNIP [3]和PANet [4]。而且研究人员的方法是Train from scratch。

速度方面,Two-stage方法论文中一般是不报的One-stage方法只在较浅的backbone上如VGG-16上报速度,一般处理一张图片需要十几毫秒,在较深的backbone上速度慢一些,处理一张图片需要几百毫秒,但还是要比two-stage的方法快。

在这里,研究人员在一张Nvidia Tesla P100显卡上比较了CornerNet和CenterNet,CornerNet511-104测试速度约为300ms/帧 (并没有实现原论文所说的250ms/帧的速度,可能是与我用的服务器环境有关),而CenterNet511-104 的测试速度约为340ms/帧,比baseline慢约40ms/帧。

但对于更轻backbone,CenterNet511-52的测试速度约为270ms/帧,比CornerNet511-104快约30ms/帧,而且其精度无论是single-scale test 还是 multi-scale test 都比CornerNet511-104高。

对角55.8厘米是多少寸,对角1.8米是多少寸(11)

CenterNet 以 CornerNet为 baseline,后者为最具代表性的基于关键点的目标检测方法。上图展示了CenterNet与CornerNet的对比结果。(a) 和 (b) 表明CenterNet能有效去除小尺度的错误目标框。(c) 和 (d) 表明CenterNet能有效去除中等尺度和大尺度的错误目标框。

对角55.8厘米是多少寸,对角1.8米是多少寸(12)

上一页1234下一页

栏目热文

文档排行

本站推荐

Copyright © 2018 - 2021 www.yd166.com., All Rights Reserved.