计算机视觉

Hinton新作!越大的自监督模型,半监督学习需要的标签越少

青春壹個敷衍的年華 提交于 2020-11-01 14:24:19
来源:AI科技评论 编译:青暮 本文介绍了Hinton团队发表在NeurIPS 2020上的一项研究工作,一作是Ting Chen,研究人员首次在ImageNet上尝试了半监督学习的典型范式,并取得了优越的结果。此外,他们还发现,网络的规模越大,需要的标签数据越少。 论文地址:https://arxiv.org/abs/2006.10029 仅使用1%的标签(每类≤13个标签图像),本文提出的方法即可达到73.9%ImageNet top-1准确率,与以前的SOTA相比,标签效率提高了10倍。 使用10%的标签,本文的方法可以达到77.5%的top-1准确率,优于使用100%标签的标准监督训练。 “无监督预训练、监督微调”范式 充分利用少量标记示例和大量未标记示例进行学习是机器学习的一个长期存在的问题。 人们曾经提出一种半监督学习来试图解决这个问题,其中涉及无监督或自监督的预训练,然后进行有监督的微调。 这种方法在预训练期间以与任务无关的方式利用未标记的数据,仅在有监督微调时使用带标签的数据。 这种方法在计算机视觉上很少受关注,但是在自然语言处理中已成为主流。例如,人们首先在未标记的文本(例如Wikipedia)上训练大型语言模型,然后在一些带标记的示例中对该模型进行微调。 基于视觉表示的自监督学习的最新进展,Ting Chen等人对ImageNet上的半监督学习进行了深入研究

机器视觉领军学者沈春华,获澳大利亚科研终身成就奖!专访

十年热恋 提交于 2020-10-31 09:57:45
  凭一己之力将澳大利亚机器学习研究院拉至全球排名第四;GitHub 1400 多颗 Star、并用于 Top 级手机厂商的视觉处理;这就是程序员口中的 “CV 大牛” 沈春华团队的“战绩”。   目前,沈春华在澳大利亚阿德莱德大学担任计算机科学教授。这位本科毕业于南京大学、后在阿德莱德大学获得博士学位的中国科学家,其主要研究机器学习和计算机视觉,而计算机视觉的终极目标是建立一个具有人类表现的视觉系统。      图 | 2019 年沈春华回国参会   2012 年,沈春华获得澳大利亚研究委员会的未来学者称号。除教职之外,他还是澳大利亚研究委员会机器人视觉卓越中心的科研负责人。从阿德莱德大学网站获悉,沈春华上月被列为澳大利亚科研终身成就奖,是工程与计算机类奖项的 5 名获选人之一(https://specialreports.theaustralian.com.au/1540291/9/)。   计算机排名网站 CSRanking 显示,沈春华是过去 10 年间在计算机视觉方向 3 大顶级会议发表论文最多的在澳学者。他的科研成果和产出是阿德莱德大学下属的澳大利亚机器学习研究院 (Australian Institute for Machine Learning,AIML) 能在 CSRanking 上排名世界第 4 的主要原因之一。   鉴于澳大利亚机器学习研究院的国际声誉

ECCV 2020 GigaVision挑战赛“行人和车辆检测”和“多目标追踪”冠军方案解读

落花浮王杯 提交于 2020-10-31 08:36:05
点击上方“ 迈微AI研习社 ”,选择“ 星标★ ”公众号 重磅干货,第一时间送达 来源丨 DeepBlue深兰科技 编辑丨迈微AI研习社 迈微导读 本文介绍了首届GigaVision挑战赛“行人和车辆检测”和“多目标追踪”两个赛道的难点以及冠军方案的工作细节。 日前, 全球计算机视觉顶会ECCV 2020 落下帷幕,各项挑战赛的结果也尘埃落定。深兰科技DeepBlueAI 团队包揽了 首届GigaVision挑战赛“行人和车辆检测”和“多目标追踪”两个赛道的冠军 。 过去十年中,行人检测、跟踪、动作识别、异常检测、属性识别等以人为中心的计算机视觉分析任务引起了人们的极大关注,为了促进新的算法来理解大规模现实世界场景中复杂的人群活动及社交行为,可把图像放大千倍的十亿级别像素目标检测,将在例如人脸识别、无人驾驶、监控安防和智能手机等多个领域被广泛应用。 计算机视觉作为深兰科技的核心技术之一,其实力已在多个国际顶会竞赛中得以验证,并已应用于不同领域的产品中,包括疫情期间发挥了极大作用的深兰AI热感视觉行为监控系统-猫头鹰,在广州、深圳、武汉、上海、长沙等多地获得自动驾驶路测牌照的熊猫智能公交车,以及各类机器人和智能零售产品等。 GigaVision赛题介绍 以人为中心的各项计算机视觉分析任务,例如行人检测,跟踪,动作识别,异常检测,属性识别等,在过去的十年中引起了人们的极大兴趣。

ECCV 2020 目标检测与跟踪赛事,清华大学主办 GigaVision 2020 欢迎报名~

巧了我就是萌 提交于 2020-10-31 08:08:46
综合考虑新冠疫情的影响,我们决定推迟挑战赛最终结果提交的截止日期。Gigavision 2020视觉挑战赛新的截止日期为 2020年8月15日 (23:59, UTC+8)。此外,我们重新开放了 新参赛个人/队伍的注册 ,注册截止日期为 2020年7月31日 (23:59, UTC+8)。 由于ECCV2020会议已经宣布将会以线上会议的方式举办,此次比赛的优胜队伍将会被邀请以线上演讲的方式在8月28日的ECCV GigaVision Workshop分享参赛经验。 我们希望新的时间表可以吸引更多参赛者、为每只参赛队伍提供所需的灵活性和便利,同时也可以帮助参赛者获得更好的结果,以真正促进检测、追踪等视觉任务在十亿像素视频数据上的解决。 1 比赛简介 GigaVision 2020视觉挑战赛基于清华大学新推出的十亿像素级别视频数据集 PANDA ,旨在促进新的算法来理解大规模现实世界场景中复杂的人群活动。比赛平台由 Biendata 提供。 挑战赛的结果将于2020年8月举行的 ECCV 2020 研讨会“GigaVision: When Gigapixel Videography Meets Computer Vision”(简称 GigaVision 2020 )上宣布。挑战赛的任务为两类经典的视觉任务: 图像多类别目标检测 和 视频多目标行人跟踪 。 挑战赛主页: 任务一

目标检测Anchor的What/Where/When/Why/How

妖精的绣舞 提交于 2020-10-31 06:22:22
编译|yanwan,https://zhuanlan.zhihu.com/p/150332784 来 源|https://www.wovenware.com/blog/2020/06/anchor-boxes-in-object-de tection-when-where-and-how-to-propose-them-for-deep-learning-apps/%23.XvFzo0YzY2w 本文仅作学术分享,如有侵权,请联系后台作删文处理。 也许你正在学习计算机视觉的路上,并且已经深入研究了图像分类和滑动窗口检测器。 在掌握了这些概念之后,了解最新技术(SOTA)目标检测,往往会变得令人望而生畏和晦涩难懂,尤其是在理解 Anchor 时。 毋庸讳言,深入大量流行的YOLO、SSD、R-CNN、Fast RCNN、Faster RCNN、Mask RCNN和RetinaNet,了解 Anchor 是一项艰巨的工作,尤其是在您对实际代码了解有限时。 如果我告诉你,你可以利用今天深入学习目标检测背后的 Anchor 呢?本文目标是帮助读者梳理Anchor的以下内容: What :anchor是什么? Where :如何以及在何处对图像生成anchor以用于目标检测训练? When :何时可以生成anchor? Why: 为什么要学习偏移而不是实际值? How

AI 圣经 PRML《模式识别与机器学习》官方开源(附中文版下载)

旧巷老猫 提交于 2020-10-31 04:06:00
相信任何一个搞机器学习、深度学习的人都应该听说过一本经典教材:《Pattern Recognition and Machine Learning》,中文译名《模式识别与机器学习》,简称 PRML。出自微软剑桥研究院实验室主任 Christopher Bishop 大神之手。对,就是豆瓣评分 9.5 的这本书。 毫不夸张地说,PRML 当之无愧算得上是 AI 领域的圣经了。PRML 涵盖面广,语言通俗,例子和习题更加详细,附带更多基础性的讲解和指引,难度梯度设置更为合理,是其深受广大中老年 PHD 朋友喜爱的原因。 许多领域的学生和研究者都可以用到它,包括机器学习,统计学,计算机科学,信号处理,计算机视觉,数据挖掘和生物信息学等。 PRML 内容十分丰富,共有 14 章的内容,每一章都是干货满满。整体目录如下: 第一章 介绍 第二章 概率分布 第三章 线性回归模型 第四章 线性分类模型 第五章 神经网络 第六章 内核方法 第七章 稀疏内核机器 第八章 图形模型 第九章 混合模型和EM 第十章 近似推断 第十一章 采样方法 第十二章 连续潜在变量 第十三章 顺序数据 第十四章 组合模型 这本书虽然很经典很干货,但是书籍总页数达 700 多页,而且全书都是英文。相信很多人在啃这本书的时候有遇到了很多困难! 重点来了! 就在刚刚,PRML 被微软“开源”了。 这本书的官网为: https:

人工智能如何提升大数据存储与管理效率?

懵懂的女人 提交于 2020-10-30 17:05:50
简介: 通过使用AI数据存储,供应商和企业可以将存储管理提升到一个新的水平。而且,存储管理员可以找到他们目前正在努力管理的指标的解决方案。 随着大数据的大量来源以及企业可用数据量的增加,存储容量规划已成为存储管理员的问题。据估计,每天产生2.5万亿字节的数据。现在,如果以神经元计算的话,那就是相当于2.5亿个人类大脑的海量数据。而且,相同的估计表明,全球总数据的90%是从2016年到2018年生成的。 可以简单地说,每天生成越来越多的数据,这正增加了存储工作负载的规模和复杂性。但是,人工智能可以拯救存储管理员,帮助他们高效地存储和管理数据。通过使用AI数据存储,供应商和企业可以将存储管理提升到一个新的水平。而且,存储管理员可以找到他们目前正在努力管理的指标的解决方案。 存储管理员需要努力的主要指标 存储管理员在管理存储问题时面临一些挑战。而且,如果他们克服了这些挑战,将帮助他们在数据存储的各个方面之间找到适当的平衡,例如在哪里分配工作负载,如何分配工作负载以及如何优化堆栈等等。 一般而言,吞吐量是指处理某事物的速率。在网络级别,吞吐量的度量单位是Mbps(兆位/秒),而在存储级别,吞吐量的度量单位是MB /秒(兆字节/秒)。由于一个字节等于八兆位,因此生产率在存储级别上提高了。并且,变得难以管理提高的生产率。 1. 延时 延迟是服务器完成请求所花费的时间。关于存储

2020.10.19-10.26 人工智能行业每周技术精华文章汇总

北慕城南 提交于 2020-10-29 14:11:41
前段时间,和一个朋友聊天。 聊最近在做的一些事情,比较有意思的是: 他说, 很多事情,刚开始想法挺多,但平时时间太少,下班就想休息休息,不想动了 。 这可能也是很多人面临的问题,很多事 想尝试 ,但是觉得 很麻烦 ,想想就行了。 长期以往,越来越焦虑,因为人生的很多道路是需要自己去 探索尝试 的。 所以会造成上周周报中提到的, 中年危机 ,因此这里大白主要聊一个名词: 自制力 。 如果没有自制力,无法从内心驱动的话,很多目标会 半途而废 。 当然, 提升自制力 ,也是有 方法论 的,每个人的方法不同,大白和大家说一下我的方法。 以复杂一点的为例,比如想做一套**“体验感比较好” 的 人工智能教程**。 那就会面临 两个 问题? 一是如何体验感好? 二是如何制作教程? 既然知道问题所在,就简单了,打开文档(大白常用的是腾讯文档)。 将每个问题的 解决思路 再细化,当然更加专业是利用5W2H的方式,这里不多说,感兴趣的话,可以自行百度。 一、如何体验感好? (1)搜集市面上所有的人工智能教程,文字版及视频版,进行体验。 (2)阅读每个教程中的评论,查看哪里可以改进。 二、如何制作教程? (1)如何录制一个视频?比如硬件、软件等。 (2)如何保证录制的声音好?是否要购买耳麦? (3)使用什么软件录制视频? (4)使用什么工具剪辑视频? 当进行第二次细化后,思路更清晰了,你的脑海中也有了

人工智能如何提升大数据存储与管理效率?

孤街醉人 提交于 2020-10-29 11:18:03
简介: 通过使用AI数据存储,供应商和企业可以将存储管理提升到一个新的水平。而且,存储管理员可以找到他们目前正在努力管理的指标的解决方案。 随着大数据的大量来源以及企业可用数据量的增加,存储容量规划已成为存储管理员的问题。据估计,每天产生2.5万亿字节的数据。现在,如果以神经元计算的话,那就是相当于2.5亿个人类大脑的海量数据。而且,相同的估计表明,全球总数据的90%是从2016年到2018年生成的。 可以简单地说,每天生成越来越多的数据,这正增加了存储工作负载的规模和复杂性。但是,人工智能可以拯救存储管理员,帮助他们高效地存储和管理数据。通过使用AI数据存储,供应商和企业可以将存储管理提升到一个新的水平。而且,存储管理员可以找到他们目前正在努力管理的指标的解决方案。 存储管理员需要努力的主要指标 存储管理员在管理存储问题时面临一些挑战。而且,如果他们克服了这些挑战,将帮助他们在数据存储的各个方面之间找到适当的平衡,例如在哪里分配工作负载,如何分配工作负载以及如何优化堆栈等等。 一般而言,吞吐量是指处理某事物的速率。在网络级别,吞吐量的度量单位是Mbps(兆位/秒),而在存储级别,吞吐量的度量单位是MB /秒(兆字节/秒)。由于一个字节等于八兆位,因此生产率在存储级别上提高了。并且,变得难以管理提高的生产率。 1. 延时 延迟是服务器完成请求所花费的时间。关于存储

CVPR 2020 论文大盘点-实例分割篇

我的未来我决定 提交于 2020-10-29 07:16:36
本文盘点CVPR 2020 所有实例 分割( Instance Segmentation ) 相关论文( 语义分割在这里 ,不含全景分割、医学图像分割、交互式分割等,以上将会另行总结),总计 18 篇,对文献进行了分类汇总,希望对大家有帮助。 下面这张经典图片,简单明了地说明了实例分割与其他视觉三大任务的区别: 图像分类是对整幅图像给出一个类别,目标检测将感兴趣的物体框出来,语义分割将相同类别的物体分割出来,实例分割则要分割出感兴趣类别物体的个体,既是对图像的像素级分割,又是实例级理解。 这18篇文章中有一篇Oral( Deep Snake ),含2D实例分割 8 篇(一阶段one-shot实例分割有好几篇),3D点云实例分割 5 篇,解决标注数据不足问题的非监督/半监督/小样本学习的实例分割各 1 篇,另外IBM研究了实例分割跟踪,还有 1 篇实例分割在生物图像中的应用,既高精度又兼顾速度。 通过近几天的对CVPR 2020 的总结发现,3D点云数据是视觉大趋势,在各个领域都有丰富的研究成果,实例分割也不例外。 18篇中9篇有开源代码,另外有中文解读的也把网址附上了。 大家可以在: http://openaccess.thecvf.com/CVPR2020.py 按照题目下载这些论文。 如果想要下载所有CVPR 2020论文,请点击这里: CVPR 2020 论文全面开放下载