周先森爱吃素
CorrTracker解读 CorrTracker解读
其实这篇文章早就在MOT Challenge的Leaderboard上名列前茅了,不过方法名那时候叫TLR。最近论文开放了出来,是Alibaba Group的工作,被收录于CVPR2021,在精度很高的前提下速度还不低,是名副其实的一个M
2021-04-12
GCNet解读 GCNet解读
投稿于ICCV2021的一篇多目标跟踪的工作(暂未收录),提出了一个比较简洁的范式,虽然由于侧重点在自动驾驶上因此没有在MOT Challenge赛道上比拼,不过在其他基准数据集上的效果还是很不错的。和另一篇新的SOTA方法TransCe
2021-04-08
TransCenter解读 TransCenter解读
本文介绍这篇出自MIT的多目标跟踪方向的新论文,其将transformer和基于Center的目标检测与跟踪联合到一起,设计了一个全新的多目标跟踪框架,超越了此前的TransTrack和TrackFormer,一举冲到了SOTA方法精度的
2021-04-06
CDIoU解读 CDIoU解读
简介这篇文章针对之前基于IoU的边框评估和回归机制,在前人工作的基础上设计了Control Distance IoU(CDIoU)和Control Distance IoU loss(CDIoU loss),在几乎不增加计算量的前提下有效提
2021-03-31
YOLOF解读 YOLOF解读
这是收录于CVPR2021的一篇目标检测的文章,标题也很有意思You Only Look One-level Feature,简称YOLOF,虽然和YOLO没啥关系,针对FPN做的一个工作,理论创新性还是蛮大的,这篇文章对我比较大的触动就
2021-03-24
TraDeS解读 TraDeS解读
这篇TraDeS是MOT领域的新作,收录于CVPR2021,作者来自纽约州立大学等机构,在多个基准任务上均达到SOTA水平,包括2D跟踪、3D跟踪和分割级跟踪。 简介大多数现有的online MOT方法的检测部分在整个网络中都是独立进行
2021-03-22
GFocalV2解读 GFocalV2解读
本文对作者基于GFocalV1的工作的扩展,取得了不错的效果,想要更加直白理解这篇文章的话可以参考作者的《大白话 Generalized Focal Loss V2》。 简介在之前的文章介绍了GFocalV1这个开创性的工作,它将边界框
2021-03-20
GFocal解读 GFocal解读
总的来说,GFocal这篇文章的数学性还是很高的,如果对此不感兴趣,可以阅读原作者的《大白话 Generalized Focal Loss》。 简介众所周知,单阶段检测器的发展是目标检测领域的重要研究方向,而单阶段方法往往将目标检测视为
2021-03-18
TTFNet解读 TTFNet解读
正巧最近CenterNet的作者发布了CenterNet2,趁此机会也读一读这篇之前针对CenterNet训练时间改进的TTFNet。 简介针对当前目标检测算法的痛点:其实大多数检测器都无法同时做到短的训练时间、快的推理速度和高的模型精
2021-03-16
TrackFormer解读 TrackFormer解读
TrackFormer和TransTrack一样是基于Transformer在MOT上的工作,其中一位作者就是DETR的作者,相比TransTrack虽然MOTA上不是很高,但是IDF1和IDs都是好不少的,个人觉得也是值得关注的工作,甚
2021-03-14
SA-Net解读 SA-Net解读
简介这篇文章是南京大学Yu-Bin Yang等人于2021年初开放的一篇文章,已经被收录于ICASSP2021,文章提出了一种新的视觉注意力机制,称为Shuffle Attention(置换注意力),它通过置换单元组合空间注意力和通道注意力
2021-03-08
CoordAttention解读 CoordAttention解读
简介在轻量级网络上的研究表明,通道注意力会给模型带来比较显著的性能提升,但是通道注意力通常会忽略对生成空间选择性注意力图非常重要的位置信息。因此,新加坡国立大学的Qibin Hou等人提出了一种为轻量级网络设计的新的注意力机制,该机制将位置
2021-03-08
2 / 4