计算机视觉

人工智能怎么教?清华张钹院士刚刚给我们讲了一堂课

人盡茶涼 提交于 2020-05-01 21:41:09
今天上午,张钹院士畅谈了清华是怎样办人工智能专业的。 机器之心报道,参与:泽南、蛋酱。 在上一个十年里,我们见证了人工智能的「复兴」,见证了人工智能技术对于众多行业的颠覆性变革,也感受到了人工智能对每个人生活的深刻影响。随之而来的,人工智能专业也成为了当前高校中最热门的专业之一。 2020 年 3 月,教育部公布的新增备案本科专业名单中,约 180 所高校通过了新增人工智能专业的审批,其中既包括理工类、综合类高校,也包括语言类、医药类等专业性较强的高校。 有人说,人工智能是当前最好的计算机专业。 但作为新兴专业,如何办好还需要教育者们的大量探索。 4 月 30 日,中国科学院院士、清华大学人工智能研究院院长张钹为分享了关于清华大学计算机系人工智能专业建设的经验与思考。 在著名计算机科学排名「CS Ranking」中,清华大学的人工智能学科在 2010 年至今排名仅次于 CMU,如果时间拉近到 2015 年至今范围内,清华则排名第一。 清华大学计算机系成立于 1958 年,是我国计算机学科领域教学水平最高、科研综合实力最强、影响力最广的计算机系之一。 2018 年 6 月 28 日,清华大学人工智能研究院正式成立。中国科学院院士、清华大学计算机系教授张钹出任首任院长,图灵奖获得者、清华大学交叉信息研究院院长姚期智担纲学术委员会主任。 一年后,清华大学宣布成立「人工智能学堂班」,也就是

CV之IS:计算机视觉之图像分割(Image Segmentation)算法的挑战任务、算法演化、目标检测和图像分割(语义分割/实例分割/全景分割)的对比

情到浓时终转凉″ 提交于 2020-05-01 18:00:08
CV之IS:计算机视觉之图像分割(Image Segmentation)算法的挑战任务、算法演化、目标检测和图像分割(语义分割/实例分割/全景分割)的对比 相关文章 CV之IS:计算机视觉之图像分割(Image Segmentation)算法的简介、使用方法、案例应用之详细攻略 CV之IS:计算机视觉之图像分割(Image Segmentation)算法的思维导图之详细攻略 CV之IS:计算机视觉中图像分割最diao炸(完)天(整)的思维导图 CV之IS:计算机视觉之图像分割(Image Segmentation)算法的挑战任务、算法演化、目标检测和图像分割的对比 目录 来源: oschina 链接: https://my.oschina.net/u/4413809/blog/4261043

Deep Snake : 基于轮廓调整的SOTA实例分割方法,速度32.3fps | CVPR 2020

江枫思渺然 提交于 2020-05-01 13:33:48
论文提出基于轮廓的实例分割方法Deep snake,轮廓调整是个很不错的方向,引入循环卷积,不仅提升了性能还减少了计算量,保持了实时性,但是Deep snake的大体结构不够优雅,应该还有一些工作可以补,推荐大家阅读   来源:晓飞的算法工程笔记 公众号 论文: Deep Snake for Real-Time Instance Segmentation 论文地址: https://arxiv.org/abs/2001.01629 论文代码: https://github.com/zju3dv/snake/ Introduction   实例分割是许多计算机视觉任务中的重要手段,目前大多数的算法都采用在给定的bbox中进行pixel-wise分割的方法。受snake算法和Curve-GCN的启发,论文采用基于轮廓的逐步调整策略,提出了Deep snake算法进行实时实例分割,该算法将初始轮廓逐渐优化为目标的边界,如图1所示,达到很好的性能且依然保持很高的实时性(32.3fps)。   论文的主要贡献如下: 提出基于学习的snake算法用于实时实例分割,对初始轮廓调整至目标边界,并且引入循环卷积(circular convolution)进行轮廓特征的学习。 提出two-stage流程进行实例分割,先初始化轮廓再调整轮廓,两个步骤均可以用于修正初始定位的误差。 Deep

DL之AlexNet:AlexNet算法的架构详解、损失函数、网络训练和学习之详细攻略

南笙酒味 提交于 2020-05-01 13:27:36
DL之AlexNet:AlexNet算法的架构详解、损失函数、网络训练和学习之详细攻略 相关文章 Dataset:数据集集合(CV方向数据集)——常见的计算机视觉图像数据集大集合(建议收藏,持续更新) DL之CNN(paper):关于CNN(卷积神经网络)经典论文原文(1950~2018)简介、下载地址大全(非常有价值)之持续更新(吐血整理) DL之AlexNet:AlexNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略 DL之AlexNet:AlexNet算法的架构详解、损失函数、网络训练和学习之详细攻略 目录 AlexNet算法的架构详解 来源: oschina 链接: https://my.oschina.net/u/4407552/blog/4260803

『计算机视觉』目标检测前沿及回顾(2018)

梦想的初衷 提交于 2020-05-01 06:00:46
资料来源: 人工智能前沿讲习 表格资料来源: hoya012的Github Detector VOC07 (mAP@IoU=0.5) VOC12 (mAP@IoU=0.5) COCO (mAP@IoU=0.5:0.95) Published In R-CNN 58.5 - - CVPR'14 SPP-Net 59.2 - - ECCV'14 MR-CNN 78.2 (07+12) 73.9 (07+12) - ICCV'15 Fast R-CNN 70.0 (07+12) 68.4 (07++12) 19.7 ICCV'15 Faster R-CNN 73.2 (07+12) 70.4 (07++12) 21.9 NIPS'15 YOLO v1 66.4 (07+12) 57.9 (07++12) - CVPR'16 G-CNN 66.8 66.4 (07+12) - CVPR'16 AZNet 70.4 - 22.3 CVPR'16 ION 80.1 77.9 33.1 CVPR'16 HyperNet 76.3 (07+12) 71.4 (07++12) - CVPR'16 OHEM 78.9 (07+12) 76.3 (07++12) 22.4 CVPR'16 MPN - - 33.2 BMVC'16 SSD 76.8 (07+12) 74.9 (07++12) 31.2

【今日CV 计算机视觉论文速览】 11 Mar 2019

久未见 提交于 2020-04-30 21:10:29
今日CS.CV计算机视觉论文速览 Mon, 11 Mar 2019 Totally 35 papers Interesting: 📚 Three-Player GAN ,在通常GAN的基础上增加了生成器和分类器间的竞争。利用C来合成更为困难的样本,随后这些样本将提高分类器的能力。(from ESAT-PSI) 当分类器加入时,生成的数据分布改变了不再是real/fake,而是更难分辨的中间数据: 📚 , 基于分级的方法来实现弱监督语义分割,加快语义分割的速度。(from Eindhoven University of Technology) 基础分类器先分类,而后将相关车辆行人的像素交给子分类器,右图是相关数据集和模型表现。 📚 3DN ,三维的可变形网络,实现了三维模型的风格迁移。(from USC) 其损失包含了以下部分: mesh的两项为形状损失,包含了CD(chamfer )和EMD(earth mover)两项,来确定变型后的模型与目标模型的外形。point的两项用于保持对称性,所以要通过点云来比较。为了避免自交叉引入了局域变异不变性损失,保持源形状的局域几何特性拉普拉斯损失。 code :github.com/laughtervv/3DN 📚 FastDepth ,用于嵌入式设备的快速单目深度估计,利用了depthwise

【今日CV 计算机视觉论文速览】Thu, 28 Feb 2019

99封情书 提交于 2020-04-30 21:09:23
今日CS.CV计算机视觉论文速览 Thu, 28 Feb 2019 Totally 31 papers Daily Computer Vision Papers [1] Title: Efficient Video Classification Using Fewer Frames Authors:Shweta Bhardwaj, Mukundhan Srinivasan, Mitesh M. Khapra [2] Title: Recurrent MVSNet for High-resolution Multi-view Stereo Depth Inference Authors:Yao Yao, Zixin Luo, Shiwei Li, Tianwei Shen, Tian Fang, Long Quan [3] Title: Attributes-aided Part Detection and Refinement for Person Re-identification Authors:Shuzhao Li, Huimin Yu, Wei Huang, Jing Zhang [4] Title: Fractional spectral graph wavelets and their applications Authors:Jiasong Wu, Fuzhi Wu,

【今日CV 计算机视觉论文速览】 5 Mar 2019

情到浓时终转凉″ 提交于 2020-04-30 21:08:34
今日CS.CV计算机视觉论文速览 Tue, 5 Mar 2019 Totally 63 papers Interesting: 📚 STEFANN ,基于字体自适应网络实现场景中的文字编辑修改。目前的场景文字识别很成功,按时对于场景中文字修改的工作还很少。这篇文章对于照片中文字进行自适应修改,不仅能够修复图像中的文字信息,同时可以得到戏剧性的效果。研究人员首先聚焦于如何生成不违和的文字,包括字体和颜色等。提出了一个多输入的字体特征生成器,并将原图的颜色迁移到目标图像上去。随后将生成的文字放置到原图的对应位置,并进行视觉连续性处理。(from Indian Statistical Institute Kolkata) CVPR 模型的架构如下,包含了字体生成器和颜色迁移器组成: 一些有趣的效果: 数据集: ICDAR 📚 PuVAE基于变分自编码器提纯对抗样本 ,提出了一种利用变分自编码器提出对抗样本,降低对抗噪声的模型。为了防御深度学习中对抗样本的影响,研究人员提出了一种基于变分自编码器提纯对抗样本的方法。通过将对抗样本投影到流型空间的不同类别上,来估计和消除对抗扰动。实验表面这种方法性能强劲并比普通DefenseGan快130倍。(首尔国立大学) 模型结构示例图: 训练和推理过程示例图: 推理过程的示意图: 与类似方法的比较: 📚 SRNTT基于迁移学习的图像超分辨

【今日CV 计算机视觉论文速览】Mon, 4 Mar 2019

你。 提交于 2020-04-30 21:05:46
今日CS.CV计算机视觉论文速览 Mon, 4 Mar 2019 Totally 39 papers Interesting: 📚 MaskScoring R-CNN 为实例分割任务中增加了预测质量的评分结果 ,文章提出了网络模块学习预测实例的质量,并为实例分割结果进行打分。这一模块通过实例特征和对应的预测掩膜联合起来得到掩膜区域,实验表明这一机制提高了实例分割的结果,并显著增强了多个的性能。(from 华中科技大学) 实验显示MaskIoU与分数具有更强的相关性: 网络中输出maskIoU的区域及其不同设计: 代码:https://github.com/zjhuang22/maskscoring_rcnn. ref 公众号 📚 EvoNet基于多图像的超分辨网络 ,利用基于残差的EvoNet输出多张超分辨重建图像(2X),并基于图像进行shift-and-fusion融合(2x),最终利用Evo成像模型得到最终的超分辨结果。(from Poland and with Silesian University of Technology) 一些结果: 一些相关算法比较: 高精度数据集 DIV 2K 📚 视频中非标记目标的探索 ,面临着定位和多重物体的挑战。此外现实中的物体还具有明显的长尾效应。研究人员利用10+个小时的视频数据中抽取了360,000个目标,并基于双目多帧候选区域

【今日CV 计算机视觉论文速览】Thu, 28 Mar 2019

流过昼夜 提交于 2020-04-30 19:49:07
今日CS.CV计算机视觉论文速览 Thu, 28 Mar 2019 Totally 32 papers Daily Computer Vision Papers 1.Title: GAN-based Pose-aware Regulation for Video-based Person Re-identification Authors:Alessandro Borgia, Yang Hua, Elyor Kodirov, Neil M. Robertson 2.Title: Privacy Protection in Street-View Panoramas using Depth and Multi-View Imagery Authors:Ries Uittenbogaard, Clint Sebastian, Julien Vijverberg, Bas Boom, Dariu M. Gavrila, Peter H.N. de With 3.Title: Accurate Monocular 3D Object Detection via Color-Embedded 3D Reconstruction for Autonomous Driving Authors:Xinzhu Ma, Zhihui Wang, Haojie Li, Wanli Ouyang,