计算机视觉

22课时、19大主题,CS 231n进阶版课程视频上线

不问归期 提交于 2020-08-13 16:20:47
讲 CS231n 的 Justin Johnson 在密歇根大学推出了一套计算机视觉的进阶课程。 机器之心报道,编辑:小舟、杜伟。 计算机视觉在日常生活中已经无处不在。从搜索引擎、图像理解、地图、医疗、无人机、自动驾驶到各类手机 app,都离不开计算机视觉。这些应用中有许多像图像分类和目标检测这样的视觉识别任务,而神经网络方面的进展大大提高了视觉识别系统的性能。 来自密歇根大学的 Justin Johnson 在 2019 年秋季推出了一套新的课程,该课程深入探讨了基于神经网络的计算机视觉深度学习方法的细节。这一课程近日已在 YouTube 上开放 。 课程视频链接: https://www. youtube.com/playlist? list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r 课程概况 这套 2019 年秋季的计算机视觉课程名为「Deep Learning for Computer Vision」,课程讲授者是来自密歇根大学的 Justin Johnson。作为斯坦福大学李飞飞教授的学生,Justin Johnson 曾和李飞飞一起讲授斯坦福大学计算机视觉经典课程 CS231n。 Justin Johnson,图源:https://web.eecs.umich.edu/~justincj/。 目前, Justin Johnson

党建强会丨“优秀抗疫学会”风采之中国人工智能学会

你说的曾经没有我的故事 提交于 2020-08-13 11:42:18
     转自 科技社团党建    优秀抗疫学会中国人工智能学会   自新冠肺炎疫情发生以来,中国人工智能学会党委统筹部署,全面动员立足学会实际,采取一系列有效措施,全力投入到疫情防控阻击战中。疫情暴发后,学会快速响应:全面开展科普与宣传引导工作协同全民战“疫”,组织捐赠智能机器人助力医护工作,多家知名科技公司推出了完善的人工智能防疫解决方案;同时,积极沟通国际科技组织达成共识,携手兄弟学会和科技界各方力量为疫情防控献智出力,计算机视觉、大数据、云计算等人工智能核心理论与跨学科交叉技术在疫情防控工作中发挥了重要作用。   新冠肺炎疫情发生以来,在以习近平同志为核心的党中央坚强领导下,全国上下众志成城。中国人工智能学会在中国科协和民政部的指导下积极行动:以坚定的思想服务大局,勇担使命挺身战“疫”;以实际行动驰援一线,与医护人员共渡难关;以AI战“疫”,鼓励广大会员和AI从业者科研攻关;以崇尚科学的精神为利器,消除疫情防治带来的负面影响;以凝聚智慧建言献策,为有效解决当前面临的一些突出问题提供决策参考;以平台及资源优势,免费提供丰富多彩的人工智能学习资源;以智能科技手段,助力复工复产;以加强国际间的合作,互通疫情防控的经验。 一 坚定思想,服务大局   新冠肺炎疫情防控阻击战打响以来,学会坚持党建引领,紧紧依靠科技工作者,把疫情防控工作作为巩固拓展“不忘初心 牢记使命

牛!Python 也能实现图像姿态识别溺水行为了!

╄→гoц情女王★ 提交于 2020-08-13 08:47:57
作者 | 李秋键 责编 | Carol 封图 | CSDN 下载自视觉中国 众所周知随着人工智能智能的发展,人工智能的落地项目也在变得越来越多,尤其是计算机视觉方面。 很多人学习python,不知道从何学起。 很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。 很多已经做案例的人,却不知道如何去学习更加高深的知识。 那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码! QQ群:1097524789 所以今天我们也是做一个计算机视觉方面的训练,用python来判断用户溺水行为,结合姿态识别和图像识别得到结果。其中包括姿态识别和图像分类。 首先图像分类是根据各自在 图像信息 中所 反映 的不同特征,把不同类别的目标区分开来的图像处理方法。 它是利用计算机对图像 进行 定量 分析 ,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读 。 人体姿态是被主要分为基于计算机视角的识别和基于运动捕获技术的识别。基于计算机视觉的识别主要通过各种特征信息来对人体姿态动作进行识别, 比如视频图像序列、人体轮廓、多视角等。 这里整体程序的流程如下: 百度姿态识别图片并标注 CNN网络实现图像分类 根据分类结果可视化输出结果 最终输出的程序效果如下图: 一、实验前的准备 首先我们使用的python版本是3.6

GAITC专题论坛丨聚焦模式识别前沿理论与创新应用

≡放荡痞女 提交于 2020-08-13 08:40:14
     2020全球人工智能技术大会将于7月25-26日登陆杭州未来科技城。除了令人瞩目的大会主旨论坛,同期举行的20场专题论坛嘉宾层次高、主题范围广,聚焦模式识别、脑科学与人工智能等人工智能多个热门领域,内容精彩纷呈,观点将极具创见和现实针对性。   模式识别从十九世纪五十年代兴起,是人工智能的重要组成部分,而人工智能的广泛应用也离不开模式识别技术的重大突破和创新。7月26日下午由北京大学教授、国家杰青、IEEE/IAPR Fellow林宙辰,京东集团技术委员会主席、京东智联云总裁、IEEE Fellow周伯文担任专题主席的模 式识别前沿论坛将 拉开帷幕。届时,一众嘉宾将分享模式识别的前沿动态,为我们进一步指明发展方向。 大会官网   扫码访问大会官网,获取最新会议动态   加入2020GAITC交流群,了解更多会议精彩内容 论坛主席       林宙辰    北京大学教授    国家杰青    IEEE/IAPR Fellow   在机器学习、计算机视觉、图像处理等领域有着深入研究,特别是在稀疏/低秩建模的理论、模型与优化算法、超分辨率理论与技术、人脸表情识别算法、深度学习理论与算法等方面取得了重要而深刻的成果。       周伯文    京东集团技术委员会主席、京东智联云总裁    IEEE Fellow   京东前沿研究院负责人,负责推动京东技术服务的战略、创新、研究

创建CV数据集总共分几步?这款移动端APP帮你分分钟完成

橙三吉。 提交于 2020-08-13 07:14:30
创建数据集涉及许多费时费力的工作,那么有没有办法能够轻松实现数据集创建呢?这款不久前上架 Google Play 的 APP,可以让你在移动端轻松创建计算机视觉数据集。 机器之心报道,参与:陈萍、魔王。 数据集是进行模型训练的前提,它的质量直接影响到后续模型的准确率。 目前我们可以在网络上搜索到大量制作好的数据集,那么如何快速制作属于自己的数据集呢? 最近有一款简易小工具 Manthano 在 Google Play 上架了。这款 APP 支持在移动端直接操作, 几分钟内即可创建自己的计算机视觉数据集,并支持在任何需要的地方做数据标注 。 ManthanoAPP 界面及功能展示。 如果你刚刚涉足计算机视觉领域,或者要做目标检测方面的研究,那么这款 APP 非常适合你创建属于自己的 CV 数据集。 数据集的制作离不开三步: 收集图像 标注图像 下载标注 这三步看起来简单,实则工作量巨大。单就图像注释这一块就要耗费大量的人力、物力,因为训练模型需要的数据量可以从几百张到几十万张图片不等。 因此,简单便捷的图像标注工具显得尤为重要。这款标注工具 Manthano 支持从手机或 Web 界面(app.manthano.ai)上传图像,进而创建数据集。 Manthano 下载链接:https://play.google.com/store/apps/details?id=www.app

1秒替换视频背景,阿里AI获CVPR 2020四项世界冠军

谁都会走 提交于 2020-08-13 06:57:53
近日,全球计算机视觉顶会CVPR 2020公布了各大挑战赛结果,阿里巴巴获得四项比赛的世界冠军,其中,在难度最高的DAVIS挑战赛中,阿里提出了可以精准预测视频目标位置的方法,并且首次以超过80分的成绩夺得第一名。 CVPR是AI领域规模最大的会议,被誉为计算机视觉领域“奥斯卡”,其覆盖范围涵盖计算机视觉领域的前瞻学术研究和工业应用,会议的研究成果体现了视觉AI领域研究的趋势。由于视频会议、直播等应用逐渐普及,今年顶级科技公司的研究成果逐步从图像延伸到了视频领域,涵盖视频压缩、视频分割、三维视觉等领域。 和图像识别不同,AI分析理解视频的技术门槛更高,长期以来,业界在视频AI技术的研究上鲜有重大突破。以CVPR会议难度最高的比赛之一DAVIS( Densely Annotated Video Segmentation)为例,该比赛需要参赛团队精准处理复杂视频中物体快速运动、外观变化、遮挡等信息,过去几年,全球顶级科技在该比赛中的成绩从未突破80分。 据介绍,阿里参加的四项比赛均为视频技术领域。在DAVIS挑战赛中,阿里率先实现了突破,以 84.1 的分数获得了第一名,比去年的第一名提高了7.4分。 阿里AI以84.1分的成绩获得DAVIS比赛第一名 公开资料显示,阿里提供了一种全新的空间约束方法,打破了传统STM方法缺乏时序性的瓶颈

模型加速 | 华为提出高效的模型加速框架(附源码)

ε祈祈猫儿з 提交于 2020-08-13 04:59:06
计算机视觉研究院专栏 作者:Edison_G 1.摘要 模型效率在计算机视觉领域中越来越重要。作者目前神经网络结构搜索的网络性能已经超越了人工设计的网络,搜索方法大致可以分为强化学习、进化算法以及梯度三种,有研究表明进化算法能比强化学习搜索到更好的模型,但其搜索耗时较多,主要在于对个体的训练验证环节费事。可以借鉴ENSA的权重共享策略进行验证加速,但如果直接应用于进化算法,超网会受到较差的搜索结构的影响,因此需要修改目前神经网络搜索算法中用到的进化算法。为了最大化上一次进化过程学习到的知识的价值,论文提出了连续进化结构搜索方法(continuous evolution architecture search, CARS)首先初始化一个有大量cells和blocks的超网(supernet),超网通过几个基准操作(交叉、变异等)产生进化算法中的个体(子网),使用Non-dominated 排序策略来选取几个不同大小和准确率的优秀模型,然后训练子网并更新子网对应的超网中的cells,在下一轮的进化过程会继续基于更新后的超网以及non-dominated排序的解集进行。另外,论文提出一个保护机制来避免小模型陷阱问题。 2.背景 卷积神经网络在识别、检测和分割等大量计算机视觉任务中取得了很大的进展。Over-parameterized的深层神经网络可以产生令人印象深刻的性能

华为云到底用AI做了什么?从少坐一趟机场摆渡车谈起

让人想犯罪 __ 提交于 2020-08-13 03:24:48
  机器之心原创    作者:张倩    「Everyone’s talking about AI. Huawei is making it happen.」   你坐飞机的时候有没有想过一个问题:「为什么我坐的飞机总是不靠廊桥,还要拿着行李去挤摆渡车?」      通常,相关人员会告诉你:廊桥资源比较珍贵,因此飞机靠桥的几率要低于停在远机位的几率。   其实,这个答案只说出了一部分原因。   随着机场航班数量的不断增加,「靠桥率」成为了衡量机场运行管理水平 的重要指标。要在这个指标上有所提高,除了改善硬件之外,「调度」也是一个突破口。   在国内,深圳机场率先找准了这个「突破口」。   深圳机场的廊桥机位与远机位的比例为 1:3。按照这个比例,很大一部分乘客都需要乘坐摆渡车。那么,如何让更多的航班停靠在廊桥呢?深圳机场给出的解决方案是:AI 智能调度。   在 2018 年之前,深圳机场使用的调度方案主要是人工和系统配合的,每天 1000 多个航班的机位分配需要花掉 4 个小时。从 2018 年 11 月开始,深圳机场开始建设机位资源智能分配系统,2019 年正式上线。该系统将靠桥率提升了 10 个百分点,每个廊桥每天能多保障一个航班,一年之内为 400 万旅客省去了坐摆渡车的麻烦。同时,它还将机位分配的时间缩短为 1 分钟。   在刚刚结束的华为云 TechWave

三维目标识别算法综述

廉价感情. 提交于 2020-08-13 02:53:46
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 目前三维点云数据的获取方法相对快捷,同时三维点云数据的采集不受光照影响,也规避了二维图像遇到的光照、姿态等问题,因此基于点云数据的三维物体识别也引起了人们的重视。 三维点云物体识别方法多是通过提取物体的特征点几何属性、形状属性、结构属性或者多种属性的组合等特征进行比对、学习,从而完成物体的识别与分类。可以分为以下四类方法: 1.基于局部特征的目标识别 基于局部特征的物体识别方法主要是通过局部来识别整体。该方法无需对处理数据进行分割,往往通过提取物体的关键点、边缘或者面片等局部特征并进行比对来完成物体的识别。其中,特征提取是物体识别中非常关键的一步,它将直接影响到物体识别系统的性能。基于局部特征的方式对噪声和遮挡有更好的鲁棒性,同时不受颜色和纹理信息缺乏的限制。由于局部特征描述子仅使用参考点邻域信息,所以不对场景进行分割即可处理复杂场景。但是局部特征描述子维度较高,需要消耗更多的内存,同时存在计算复杂度高,实时性差等问题。 点特征直方图(PFH)和快速点特征直方图(FPFH)是Rusu R B等人提出的相对早期的局部特征描述子。采用统计临近点对夹角的方式构造特征描述子,这也是局部特征描述子构造的典型方式,在此基础上形成了基于局部特征匹配的目标识别和位姿估计的经典框架,如下图所示。表1对典型的局部三维描述符进行了总结

YOLOv5是真的吗?并不比YOLOv4强,不配这个名字

女生的网名这么多〃 提交于 2020-08-12 15:36:16
   YOLOv4 发布不到 2 个月,一个名叫 YOLOv5 的目标检测框架横空出世,但它真的够格继承 YOLO 之名并沿用社区公认的版本号吗?工程师 Ritesh Kanjee 近日在 Medium 上通过事实与社区观点对此给出了否定答案,并批评了这种「欺世盗名」的行为。      2020 年 4 月 23 日,YOLOv4 发布……   2020 年 6 月 10 日,YOLOv5 又来了……   是不是超厉害?这不正表明我们的研究和科技发展速度超快吗?毕竟这个广受欢迎的目标检测框架的新一代 v4 版本刚发布不久,下一代 v5 版本就横空出世了。YOLOv5 真的这么厉害以至于自成一代?还是说仅仅是个噱头?本文将尽可能客观地研究其中一些相关证据,看看 YOLOv5 究竟是否名副其实?      来自:https://github.com/ultralytics/yolov5   首先简单介绍一下 YOLO。YOLO 是一个实时目标检测框架,其意思是 You Only Look Once(你只看一次)。也就是说待检测的目标图像仅会通过全卷积神经网络(FCNN)一次。碍于篇幅,本文不会介绍 YOLO 的技术细节,感兴趣的读者可参阅机器之心的文章《教程 | 单级式目标检测方法概述:YOLO 与 SSD》及《YOLO v4 它来了:接棒者出现,速度效果双提升》。    事件回顾