CV_Daily Issue 20

不羁的心 提交于 2020-04-11 09:40:52

CV_Daily Issue 20

author:xyang
  • [2019 CVPR oral + Active Learning] Learning Loss for Active Learning

随着更多注释数据,深度神经网络的性能得到改善。
问题是注释的预算是有限的。
对此的一个解决方案是主动学习,其中模型要求人们注释其认为不确定的数据。
已经提出了各种最近的方法来将主动学习应用于深度网络,但是大多数方法要么针对其目标任务而设计,要么对于大型网络而言计算效率低。
在本文中,我们提出了一种新颖的主动学习方法,该方法简单但与任务无关,并且可以与深度网络一起高效地工作。
我们将一个名为“损耗预测模块”的小参数模块附加到目标网络,并学习它以预测未标记输入的目标损失。
然后,该模块可以建议目标模型可能产生错误预测的数据。
这种方法与任务无关,因为无论目标任务如何,都可以从单一损失中学习网络。
我们通过最近的网络架构,通过图像分类,对象检测和人体姿态估计来严格验证我们的方法。
结果表明,我们的方法在任务上始终优于以前的方法。








  • [2019 CVPR oral ]Striking the Right Balance with Uncertainty

在不平衡数据集上学习无偏模型是一项重大挑战。
稀有类往往在分类空间中得到集中表示,这阻碍了学习边界向新测试示例的泛化。
在本文中,我们证明了贝叶斯不确定性估计与类别的稀有性和单个样本的难度水平直接相关。
随后,我们提出了一个基于不确定性的类不平衡学习的新框架,它遵循两个关键的见解:首先,分类边界应该进一步远离更不确定(罕见)的类,以避免过度拟合并增强其泛化。
其次,应将每个样本建模为多变量高斯分布,其中均值向量和由样本不确定性定义的协方差矩阵。
学习的边界不仅应该尊重单个样本,还应该尊重它们在特征空间中的分布。
我们提出的方法有效地利用样本和类不确定性信息来学习鲁棒特征和更通用的分类器。
我们系统地研究了类不平衡问题,并基于贝叶斯不确定性度量推导出一种新的最大边际学习损失公式。
所提出的方法在六个基准数据集上显示出显着的性能改进,用于面部验证,属性预测,数字/对象分类和皮肤病变检测。







  • [2019 CVPR oral] AutoAugment: Learning Augmentation Strategies from Data

数据增强是提高现代图像分类器准确性的有效技术。
但是,当前的数据增强实现是手动设计的。
在本文中,我们描述了一个名为AutoAugment的简单过程,以自动搜索改进的数据增强策略。
在我们的实现中,我们设计了一个搜索空间,其中策略由许多子策略组成,其中一个子策略是为每个小批量中的每个图像随机选择的。
子策略由两个操作组成,每个操作是图像处理功能,例如平移,旋转或剪切,以及应用功能的概率和大小。
我们使用搜索算法来找到最佳策略,使得神经网络在目标数据集上产生最高的验证准确度。
我们的方法在CIFAR-10,CIFAR-100,SVHN和ImageNet上实现了最先进的精确度(无需额外数据)。
在ImageNet上,我们获得了83.5%的前1准确度,比之前的83.1%的记录好0.4%。
在CIFAR-10上,我们实现了1.5%的错误率,比之前的状态好了0.6%。
我们发现的扩充策略可在数据集之间转换。
在ImageNet上学到的政策转移得很好,以便在其他数据集上实现显着改进,例如Oxford Flowers,Caltech-101,Oxford-IIT Pets,FGVC Aircraft和Stanford Cars。









发布了762 篇原创文章 · 获赞 201 · 访问量 33万+
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!