1500字范文,内容丰富有趣,写作好帮手!
1500字范文 > A Simple Semi-Supervised Learning Framework for Object Detection

A Simple Semi-Supervised Learning Framework for Object Detection

时间:2024-05-28 23:17:31

相关推荐

A Simple Semi-Supervised Learning Framework for Object Detection

热门的半监督学习方法大部分是基于一致性自训练的。半监督的核心思想是先为无标注的数据生成人工标签,然后训练模型预测这些人工标签。预测的人工标签可以是one-hot也可以是预测分布(soft)。SSL成功的另一个支柱是数据增强的进步。数据增强提高了深度神经网络的鲁棒性。并且已经证明对于基于一致性的自训练特别有效。复杂的数据增强策略,例如RandAugment 和CTAugment ,对SSL的图像分类非常有效。用于对象检测的SSL仅有的研究大多依赖于额外的上下文,例如对象的类别相似性。本来利用从图像分类中学到的经验到目标检测中。本文结合自训练(通过伪标签)和基于强数据增强的一致性归一化来做目标检测。第一阶段:首先使用所有标注的数据来训练目标检测器直到收敛。然后,检测器用于预测无标签的图像得到需要的标签,这些结果经过NMS和阈值处理之后得到最终精确的标签。第二阶段中:首先再无标签的图像上做强的数据增强RandAugment(本文包括全局颜色变换,全局或者边框的集合变换,cutout等),然后使用有表情的图像和无标签的图像(经过数据增强的?)以及第一阶段预测的对应的伪标签来训练模型。本文还设计了新的experimental protocols来评估实验效果。分别使用1%, 2%, 5% and 10%的训练集作为全标签数据集,剩下的为无标签数据来训练模型。使用VOC07的trainval作为标记集,使用MS-COCO的有或没有未标记数据的VOC12的trainval作为未标记集。

贡献如下:

1.我们开发了STAC,这是一种用于对象检测的半监督学习框架,可无缝扩展基于自训练和增强驱动的一致性正则化的最新SSL分类方法。

2. STAC很简单,仅引入了两个新的超参数:置信度阈值τ和无监督loss权重λu,这不需要大量额外的调整工作。

3.我们提出了使用MS-COCO进行SSL对象检测的新实验协议(protocol),并在Faster RCNN框架中证明了STAC对MS-COCO和PASCAL VOC的有效性。如何使用伪标签对于半监督学习至关重要。

本文使用伪标签,伪框,和数据增强来增强目标检测。数据扩充对于提高模型泛化性和鲁棒性至关重要,尤其是逐渐成为半监督学习的主要动力。输入空间的适当颜色变换和几何变换对于提高泛化能力至关重要。

无监督学习的无监督损失:制定无监督数据的无监督loss是无监督学习的关键。对于K-way分类,一致性归一化为:

在此,p表示由θ参数化的模型的预测。

STAC: SSL for Object Detection:本文首先采用NoisyStudent的阶段性训练,以提高其可伸缩性和灵活性,设计至少两个阶段的训练:1. 使用有标签数据来训练一个教师模型,2.使用标签数据和无标签数据来训练模型,这些伪标签需要使用高阈值和一些别的手段来得到高质量的伪标签。

训练STAC的步骤如下:

1.在可用的标签图像上训练教师模型。

2.使用训练好的教师模型生成无标签图像的伪标签(即边界框及其类标签)。

3.对未标记的图像应用强大的数据增强,并在应用全局几何变换时变换相应的伪标记(即边界框)。

4.计算无监督损失和有监督损失以训练检测器。

无监督loss:给定一个无标签图像X,一系列预测的边框和得分,我们确定qi *,即所有anchor的anchor i相对于伪框的二进制标签。

Data Augmentation Strategy:基于一致性的SSL方法(例如UDA [59]和FixMatch [50])成功的关键因素是强大的数据增强。这里扩展了RandAugment,使用最近提出的扩充搜索空间(例如,box-level变换)以及Cutout。

1.Global color transformation:操作和强度都是[7]中的; 2.Global geometric transformation:x-y translation, rotation, and x-y shear, are used;3.Box-level transformation: 跟2一样,但是幅度较小;

数据增强的顺序:首先进行颜色变换,然后使用全局或者box-level变换,最后,在图上进行随机遮挡。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。