计算机视觉

CVPR 2020 论文大盘点-抠图Matting篇

拥有回忆 提交于 2020-12-29 12:50:57
抠图 (Image Matting)是一个非常有趣的领域,它的任务是对图像前景像素的不透明度(alpha 通道)进行计算,方便后续的图像合成编辑。 传统的Matting方法需要输入三色图(Trimap),如下: 该 图来自 :http://wangchuan.github.io/archive/projects/robust-matting/ 上图中第一行是原图,第二行是Trimap,Trimap用三个数值标识了三类区域:肯定是背景、肯定是前景和不确定,即图中黑、白、灰。 但近来Matting领域一大特征是越来越多的算法尝试无需输入Trimap的抠图,并有了非常惊艳的表现,这大大提高了Matting的易用性,CVPR 2020 三篇 Matting相关论文均如此。 在短视频应用持续爆发的当下,基于此类技术抠图再图像合成, 无需绿幕 即可实现 大片特效 的需求肯定会越来越多。 大家可以在: http://openaccess.thecvf.com/CVPR2020.py 按照题目下载这些论文。 如果想要下载所有CVPR 2020论文,请点击这里: CVPR 2020 论文全面开放下载,含主会和workshop [1].Background Matting: The World Is Your Green Screen 作者 | Soumyadip Sengupta, Vivek

计算机视觉、计算机图形学、图像处理的区别和联系

妖精的绣舞 提交于 2020-12-29 12:48:59
计算机视觉、计算机图形学、图像处理的区别和联系 搞了CV一段时间,仍时不时因为概念问题而困惑,搞不清楚计算机视觉(Computer Vision),计算机图形学(Computer Graphics)和图像处理(Image Processing)的区别和联系。在知乎上看到了一个帖子,觉得解释的很好,结合自己的理解,形成此文存档。 1.基本概念 从定义理解概念是最严谨的。所以首先搞清楚维基百科中这些概念的定义。 计算机视觉(CV): Computer vision is a field that includes methods for acquiring, processing, analyzing, and understanding images and, in general, high-dimensional data from the real world in order to produce numerical or symbolic information, e.g., in the forms of decisions.[1] 直译过来就是 计算机视觉是一个学科/领域,它包括获取、处理、分析和理解图像或者更一般意义的真实世界的高维数据的方法;它的目的是产生决策形式的数字或者符号信息。 计算机图像学(CG): Computer graphics is a sub

AI工程师计划明年跳槽,我劝你先来学习这些,不然……

淺唱寂寞╮ 提交于 2020-12-26 00:55:06
在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。 搞AI,不少人都进入一个误区,那就是只钻研自己的代码是否精进,而没有注意提升自己的阅读能力。实际上,一个专业的学术研究员或者AI研究员可能需要花费几百个小时来阅读论文, 阅读论文可以帮助你深入原理,理解AI更前沿的发展状态,掌握更前沿的技术热点 。 高效的阅读论文,是一种必不可少的经验和技能。 可很多人在阅读的过程中 只是从头读到尾,有的时候浪费了大量的时间还不知道作者到底说了什么 。或许你可以尝试从这几个方向入手: 1、对论文的主题以及核心内容进行了解和分析; 2、了解论文的核心思想; 3、深入理解论文、尝试复现。 还有一些朋友自己找文章、论文的时候, 往往可能不会找、找不全,有些论文需要付费下载 ,并且这样很影响自己的学习效率。 不要担心,我们为你整理了【人工智能全阶段论文资料大礼包】, 涵盖了人工智能、机器学习、自然语言处理(NLP)、计算机视觉(CV)、商业智能(BI)、Python全栈等,全AI论文体系 。 无论你是机器学习工程师,还是CV工程师、NLP工程师、数据分析师、Python全栈工程师,本资料都可以满足你的论文需求。 《史上最全论文体系》 长按下方二维码 获取完整版本免费资料 👇👇👇 论文涵盖体系全面 大型AI界论文资源集合现场不要错过 人工智能全阶段论文 包含人工智能与机器学习

深度学习的一些经验总结和建议| To do v.s Not To Do

女生的网名这么多〃 提交于 2020-12-23 04:22:11
每天进步一点点,关注&置顶“ 我爱计算机视觉 ” CV君:本文作者为百度 PaddlePaddle 组技术布道师Charlotte77,内容全是实战经验的精炼总结,强烈推荐大家收藏。 除了列出来的内容,各位读者有什么独门秘籍也欢迎文末留言分享!截止到明晚23点(7月22日),留言被点赞最多的深度学习绝招,联系CV君(文末扫码)发50元红包! 昨天看到几篇不同的文章写关于机器学习的to do & not to do,有些观点赞同,有些不赞同,是现在算法岗位这么热门,已经不像几年前一样,可能跑过一些项目、懂点原理就可以了,现在对大家的要求更高,尤其工程能力更不可缺少,只跑过一些iris鸢尾花分类、啤酒与尿布、猫狗分类等的同学需要再提高提高,因为竞争太激烈了, 我在这里结合我自己的经验 总结一下 吧~ To Do 做项目时,边搜集数据可以边用已经搜集好的 少部分数据跑模型 。不用等到所有数据都搜集好了再跑。 不知道什么算法合适,可以直接把所有的算法都跑一遍,看效果再选择,多跑几个应用场景你就知道什么算法适合什么场景,什么数据对不同的算法会有什么影响了。 不知道什么参数是最佳参数,可以用random search或者grid search自动搜索最佳参数组合,有经验以后对于每个参数的大概范围心里会有个数。 一定要练习工程能力,只会调参的demo侠现在很难找到工作啦。 模型复现和刷题

图像特征提取(颜色,纹理,形状)

风格不统一 提交于 2020-12-22 05:24:17
点击上方 “ 机器学习与生成对抗网络 ”,关注"星标" 获取有趣、好玩的前沿干货! 来源 新机器视觉 来自 小白学视觉 编辑 王萌 深度学 习冲鸭 著作权归作者所有,文仅分享,侵 删 1.颜色特征提取 计算机视觉的特征提取算法研究至关重要。在一些算法中,一个高复杂度特征的提取可能能够解决问题(进行目标检测等目的),但这将以处理更多数据,需要更高的处理效果为代价。而颜色特征无需进行大量计算。只需将数字图像中的像素值进行相应转换,表现为数值即可。因此颜色特征以其低复杂度成为了一个较好的特征。 在图像处理中,我们可以将一个具体的像素点所呈现的颜色分多种方法分析,并提取出其颜色特征分量。比如通过手工标记区域提取一个特定区域(region)的颜色特征,用该区域在一个颜色空间三个分量各自的平均值表示,或者可以建立三个颜色直方图等方法。下面我们介绍一下颜色直方图和颜色矩的概念。 (1)颜色直方图: 颜色直方图用以反映图像颜色的组成分布,即各种颜色出现的概率。Swain和Ballard最先提出了应用颜色直方图进行图像特征提取的方法[40],首先利用颜色空间三个分量的剥离得到颜色直方图,之后通过观察实验数据发现将图像进行旋转变换、缩放变换、模糊变换后图像的颜色直方图改变不大,即图像直方图对图像的物理变换是不敏感的。因此常提取颜色特征并用颜色直方图应用于衡量和比较两幅图像的全局差。另外

图像特征提取(颜色,纹理,形状)

我的未来我决定 提交于 2020-12-22 05:21:35
点击上方 “ 小白学视觉 ”,选择加" 星标 "或“ 置顶 ” 重磅干货,第一时间送达 转自 | 新机器视觉 1.颜色特征提取 计算机视觉的特征提取算法研究至关重要。在一些算法中,一个高复杂度特征的提取可能能够解决问题(进行目标检测等目的),但这将以处理更多数据,需要更高的处理效果为代价。而颜色特征无需进行大量计算。只需将数字图像中的像素值进行相应转换,表现为数值即可。因此颜色特征以其低复杂度成为了一个较好的特征。 在图像处理中,我们可以将一个具体的像素点所呈现的颜色分多种方法分析,并提取出其颜色特征分量。比如通过手工标记区域提取一个特定区域(region)的颜色特征,用该区域在一个颜色空间三个分量各自的平均值表示,或者可以建立三个颜色直方图等方法。下面我们介绍一下颜色直方图和颜色矩的概念。 (1)颜色直方图: 颜色直方图用以反映图像颜色的组成分布,即各种颜色出现的概率。Swain和Ballard最先提出了应用颜色直方图进行图像特征提取的方法[40],首先利用颜色空间三个分量的剥离得到颜色直方图,之后通过观察实验数据发现将图像进行旋转变换、缩放变换、模糊变换后图像的颜色直方图改变不大,即图像直方图对图像的物理变换是不敏感的。因此常提取颜色特征并用颜色直方图应用于衡量和比较两幅图像的全局差。另外,如果图像可以分为多个区域,并且前景与背景颜色分布具有明显差异,则颜色直方图呈现双峰形。

阿里巴巴文娱NLP团队招聘

只谈情不闲聊 提交于 2020-12-19 15:06:41
团队简介 阿里巴巴文娱NLP团队大量招人(P6-P8),我们承接着文娱全部技术线的各类NLP需求,专注研发自然语言分析技术(分类、聚类、情感、问答、关系抽取、知识图谱),为各项顶层业务提供NLP技术支持(知识推断、意图识别、query改写、搜索相关性、全网搜索等)。 我们不断夯实技术进而驱动商业,目标是成为最有价值的商业自然语言处理团队,采用平台化策略服务好阿里内外的各种需求。 阿里巴巴文娱部门NLP算法团队支撑文娱集团整体业务线的NLP需求,专注研发自然语言分析技术(分类、聚类、情感、问答、关系抽取、知识图谱),为各项顶层业务提供NLP技术支撑(知识推断、意图识别、query改写、搜索相关性、全网搜索等)。在不断夯实技术进而驱动商业,成为最有价值的商业自然语言处理团队,采用平台化策略服务阿里内外的各种需求。 坐标 - 杭州 岗位职责 - 运用机器学习、深度学习技术,研发文本分析、知识图谱相关算法,并应用于个性化推荐&搜索; - 改进和研发文本理解、文本生成、主题发现、知识抽取等技术; - 跟踪业界与学界最新进展,并能够快速应用到实际业务中。 岗位要求 - 编程基础扎实,熟练使用至少一种常用编程语言,如 Python / C++ / Java,熟悉 Tensorflow、Keras、Caffe等深度学习工具。 - 熟悉机器学习的基础方法(分类、回归、排序、降维等

AI智慧工程 | MixLab人工智能

假如想象 提交于 2020-12-19 07:17:46
自动化施工监控 使用5G + IoT + AI 和计算机视觉技术来优化建筑安全性,生产率和合规性。 风险预测 使用视频数据,帮助建筑工地提前预测危险和风险,以防止受伤 定义危险区 使用最新的深度学习技术直接在平台上绘制出危险区域 数据显示,这套解决方案能为工地节约70%以上的监控人手,将行业的事故率从2-3%降至0.1%以下。 www.viact.ai 想要了解更多 智慧城市 请戳 “ 超越期望的AI CITY ?| Mixlab未来城市技术 ” 更多智能主题 👇 「 Mix+人工智能 」 专刊 每期由mixlab社区精选。收录人工智能的相关内容,包括AI产品、AI技术、AI场景、AI投资事件、AI的思维方式等,MIX的主题包括:AR、VR、计算设计、计算广告、智能设计、智能写作、虚拟偶像等。 欢迎一起 探索未知世界 如果觉得文章不错~ 那就点一下 本文分享自微信公众号 - 无界社区mixlab(mix-lab)。 如有侵权,请联系 support@oschina.cn 删除。 本文参与“ OSC源创计划 ”,欢迎正在阅读的你也加入,一起分享。 来源: oschina 链接: https://my.oschina.net/u/4582735/blog/4687512

CVPR 2020 论文大盘点-文本图像篇

帅比萌擦擦* 提交于 2020-12-19 04:25:37
本文盘点CVPR 2020 所有文本图像( text )相关论文,主要分为 手写文本 和 场景文本 两大方向,总计 16 篇,对文献进行了细致的分类,大部分论文是围绕识别问题的研究。 方向包括: 1)场景文本检测( Scene Text Detection ),从街景等场景文本中检测文本的位置,2 篇文献均为不规则任意形状文本的检测; 2)场景文本识别( S ce ne Text Recogni tion ),对场景文本检测得到的结果进行识别,共 4 篇文章; 3)手写文本识别( H andwritten Text Recognition ),2 篇文章; 4) 场景文本 端到端识别( Scene Text Spotting),1 篇文章,即 华南理工大学和阿德莱德大学学者提出的 实时 ABCNet 算法 ,很吸引人,已经开源; 5)手写文本生成( H andwritten Text Generation ),为了增加手写文本的训练样本(感觉也可以用来“写作业” ),1 篇文章; 6)场景文本合成(Scene Text Synthesis),为了增加场景文本的训练样本,1 篇文章,出自旷视科技, UnrealText 用渲染引擎生成逼真场景文本; 7)文本图像的数据增广,用于手写和场景文本识别算法的训练,1 篇文章; 8)场景文本编辑( Scene Text Editor )

多任务上实现SOTA,UBC、谷歌联合Hinton等提出3D点云的无监督胶囊网络

我与影子孤独终老i 提交于 2020-12-18 13:02:15
这是一种为 3D 点云提出的无监督胶囊架构,并且在 3D 点云重构、配准和无监督分类方面优于 SOTA 方法。 机器之心报道,作者:杜伟、小舟。 理解对象是计算机视觉的核心问题之一。传统方法而言,理解对象任务可以依赖于大型带注释的数据集,而无监督方法已经消除了对标签的需求。近来,研究人员试图将这些方法扩展到 3D 点云问题上,但无监督 3D 学习领域却进展寥寥。 近日,包括 Weiwei Sun、Andrea Tagliasacchi、Geoffrey Hinton 等来自英属哥伦比亚大学、谷歌研究院、多伦多大学的研究者提出了用于 3D 点云的无监督胶囊网络。Hinton 对此表示:在不受监督的情况下找到一个对象的自然组件以及这些组件的内在参照系是学习将解析图像转换为局部整体层级结构的重要一步。如果以点云开始,则可以做到。 具体而言,研究者通过排列等变(permutation-equivariant)的注意力计算对象的胶囊分解,并通过训练成对的随机旋转对象来自监督该过程。本研究的核心思想是将注意力掩模聚合为语义关键点,并使用它们来监督满足胶囊不变性或等方差的分解。这不仅可以训练语义上一致的分解,还能够学习以对象为中心的推理的规范化操作。在这种情况下,既不需要分类标签,也不需要手动对齐的训练数据集进行训练。 最后,通过以无监督的方式学习以对象为中心的表征,该方法在 3D 点云重构