论文参考文献

注册

 

发新话题 回复该主题

样本增广自动化AutoAugment论 [复制链接]

1#

五期飞跃计划还剩3个名额,联系小编,获取你的专属算法工程师学习计划(联系小编SIGAI_NO2)

GoogleDeepMind()

AutoAugmentearningAugmentationPoliciesfromData

本文深入研究了图像的数据增强方法,提出了一种简单的基于搜索的数据增强方法AutoAugment.作者的主要思想是创建数据增强策略的搜索空间,并直接在一些数据集上评估特定策略的质量。在本文的实验中,作者设计了一个搜索空间,每一种策略由许多子策略组成,在每一个batch中都会为每一张图像随机选择一种子策略。子策略包含两个操作,每个操作都是一种图像处理方法,如平移,旋转或剪切等,对于每一个操作都有一组概率和幅度来表征这个操作的使用性质。本文使用搜索算法,搜索使神经网络在目标数据集上获得了最高的验证集精度的最佳策略,在没有额外数据的条件下实现了CIFAR-10,CIFAR-,SVHN和ImageNet上state-of-the-art的精度。在ImageNet上,AutoAugment获得了83.54%的top1精度。在CIFAR-10上,AutoAugment实现了仅1.48%的错误率,比之前state-of-the-art的结果提高了0.65%。在reducedCIFAR-10数据集上,AutoAugment在不使用任何未标记数据的情况下做到了与半监督方法相同的性能。最后,从一个数据集中学习的策略可以直接转移到其他类似的数据集上并且表现的同样好。例如,在ImageNet上学到的策略无需使用新的数据对预训练的模型进行微调便可以做到在细粒度的视觉分类数据集StanfordCars上实现state-of-the-art的精确度。

一.概述

在有海量数据支持的情况下,深度神经网络可以说是机器学习系统里强大的一个分支。数据增强是一种通过随机“扩充”来增加数据量和多样性的策略[1–3];在图像领域,常见的增强包括将图像平移几个像素,或者水平翻转图像。直观地说,数据增强用于”教会”模型数据域中的不变性:如对图像进行分类通常对水平翻转或图像变换不敏感。一些设计出来的神经网络可以被用来硬编码(通过某种精巧的设计来获取)不变性[3–6]:如卷积神经网络拥有平移不变性,而另一些物理模型也具有自身不变性:如平移,旋转和置换的不变性等等[7–12]。但是使用数据增强来获得潜在的不变性要比直接将不变性硬编码到模型体系结构中容易的多。

然而,机器学习和计算机视觉领域的绝大多数工作是在设计更好的网络架构[13-21],而较少的

分享 转发
TOP
发新话题 回复该主题