深度学习

十年之后,CV经典教材《计算机视觉:算法与应用》迎来第二版,初稿开放下载

吃可爱长大的小学妹 提交于 2020-09-28 18:54:26
你也在用《计算机视觉:算法与应用》入门 CV 吗?或许你手里的版本已经有点过时了。 机器之心报道,编辑:张倩。 提到计算机视觉领域的入门书,不少人会推荐 Facebook 研究科学家 Richard Szeliski 的《计算机视觉:算法与应用》。这本书的英文版于 2010 年出版,2011 年被翻译成中文在国内面世,成为很多人学习计算机视觉的入门教材。 这本书探索了用于分析和解释图像的各种常用技术,描述了具有一定挑战性的视觉应用方面的成功实例,兼顾专业的医学成像和图像编辑与拼接之类有趣的大众应用。在这本书中,作者从科学的角度介绍了基本的视觉问题,将成像过程的物理模型公式化,然后在此基础上生成对场景的逼真描述,他还运用统计模型来分析和运用严格的工程方法来解决这些问题。 作为一本被广泛采用的教材,《计算机视觉:算法与应用》非常受初学者欢迎,有人称赞其「为计算机视觉技术的初学者(本科生)提供了广泛的标准计算机视觉问题的坚实基础」。 内容引自知乎用户 @红色石头。原贴链接:https://zhuanlan.zhihu.com/p/85618233 还有人表示,这本书「写得很简单,看完后对这个领域有了很好的把握,而且很多内容都有代码,感兴趣的地方自己尝试后,对算法理解也加深了很多」。 内容引自知乎用户 @Recruit (https://www.zhihu.com/people/rui

科大讯飞拾音领域实现新突破,“谛听”可识别30分贝超小音量

跟風遠走 提交于 2020-09-28 12:57:17
近年来,国内人工智能技术日新月异,但一些前端技术,却少有突破。随着A.I.智能语音等产品的流行,人们的人机交互方式逐渐从物理交互向生物交互转变。而交互的第一步——拾音,效果差强人意。就智能家居来说,它们的拾音范围多集中于近场环境,约为2-3米,且拾取效果往往欠佳,需多次唤醒。 如果把摄像机比作“眼睛”,拾音器便是“耳朵”。眼睛看到的图像和耳朵听到的声音组合构成一个基本的影音记录系统。然而这只灵活的耳朵在应用过程中会受到诸如拾音距离、室内混响、环境噪音等诸多因素的影响,这对拾音来说是不小的挑战。 如何真正“耳听八方”?深耕智能语音与人工智能领域多年的科大讯飞,近期,推出了全新拾音品牌——谛听,在超小音量拾取和降噪方面力争取得一席之地。其实,讯飞在早前推出的讯飞录音笔、智能鼠标、阿尔法蛋等产品均涉及语音交互。基于产品应用的技术积累,这次在拾音领域发力深耕,令人欣喜。 据了解,科大讯飞谛听系列配备了32路麦克风,主打全自动声源定位、自适应波束形成和混响抑制技术以及基于深度学习的噪声抑制和语音自动增益调节算法,可实现室内说话人自动定位、噪声与混响抑制、音量自动调节等功能,从而达到精准拾音的目的。 自动追踪声源,精准拾取30分贝超小音量 近日,某科技博主的一支关于拾音器的评测视频引发关注。视频中,科大讯飞的谛听系列产品和德国森海塞尔、美国舒尔的同类产品“同台竞技”,讯飞表现出彩。

高校宣布已建成世界一流大学,教育部回应!

梦想与她 提交于 2020-09-28 12:21:27
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 来源:中新网、 科学网(刘如楠) 编辑:双一流高校 今天(9月24日),教育部召开新闻发布会。针对近期专家评议认为清华大学等高校已全面建成为世界一流大学,教育部新闻发言人续梅表示,双一流建设首轮的建设时间是从2016年到2020年,今年是首轮建设的收官期,所以最近一段时间各有关高校按照相关的要求,分别组织专家在对建设的成效进行自评。 因此现在是主要依托专家阶段性的进行的自我总结,自我评估 。 续梅表示, 经过这5年的建设,相关建设学校不断在汇聚优质的资源,不断加强内涵建设,也取得了一定的阶段性的成果。但是我们也要清醒地看到,我们国家高等教育的整体实力和世界一流大学相比,还有不小的差距,尤其是要实现到本世纪中叶一流的大学,一流的学科,不论是从质量上还是从数量上都要进入世界的前列, 我们还有很长的路要走,还有相当多的工作要做,还有很艰巨的任务,所以对此我们要有清醒的认识 。 9月21日,清华大学官网发布消息称,“双一流”周期总结大会的评议专家组一致认为, 清华大学已经全面建成世界一流大学 。 同时, 中国人民大学表示,整体进入世界一流大学行列。 北京大学则表示,全面实现了“双一流”建设近期目标;而根据北京大学官方公布的近期目标,就是到2020年,学校整体建成世界一流大学。 今年是首轮“双一流”建设收官之年。按照

重磅直播|大规模点云可视化技术

五迷三道 提交于 2020-09-28 11:28:23
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 大家好,本公众号现已开启线上视频公开课,主讲人通过B站直播间,对3D视觉领域相关知识点进行讲解,并在微信群内完成答疑。 往期精彩: 第一期:东北大学李奇 《基于深度学习的物体抓取位置估计》 第二期:上海交通大学沈毅君 《相机标定的基本原理与经验分享》 第三期:西安交通大学潘浩洋 《基于点云的三维物体表示与生成模型》 第四期:北京科技大学李阳阳《 求职经验分享 》 第五期:ChaucerG《 聊聊目标检测和秋招那些事 》 第六期:镭神智能创始人雷祖芳《 基于激光雷达的感知、定位导航应用 》 第七期:东北大学龚益群《 图像对齐算法 》 第八期:武汉大学李迎松博士《 立体视觉之立体匹配与实战 》 第九期:北京中科慧眼CTO崔峰《 深度相机与应用 》 第十期:博众精工技术总监杨军超《 结构光编码与三维重建技术 》 第十一期:熵智科技高磊博士 《结构光3D相机光机核心技术及3D成像性能分析》 主讲人对该领域的核心和主流技术进行了详解,干货满满,线下的答疑更是赢得了同学们的好评。 本期由河海大学摄影测量与遥感在读研究生李子宽分享,分享的主题为 《 大规模点云可视化技术 》 ,主讲人会对该领域的核心和主流技术进行详细讲解,欢迎大家参与线上讨论。 我们举办的线上直播分享,旨在更加详细和清晰地传播3D视觉技术,主讲人主要来自特邀嘉宾和星球成员

8~10万项目需求|全景相机机外拼接合成图像

蹲街弑〆低调 提交于 2020-09-28 08:51:12
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 项目需求: 手机APP实现全景相机机外拼接合成图像 需求内容: 实现单鱼眼镜头拍多张图合成全景图 1、APP页面可以参考全景相机同行的布局来做。 2、APP内嵌入相机SDK,可操作及查看下载等相机各种功能和设置。(我方提供相机相关SDK代码) 3、APP内嵌入拼接合成软件,可以自动识别并校正拼接合成多张图为全景图,自动渲染及消除拼接色差,重影,错位和曝光等。APP在合成全景图时可在全景图中间位置插入一张图片盖住三角架。用户也可自行更换该图片。下载合成时可自由选择保存全景图的路径可存在手机上、相机内或两者同步保存。 4、单镜头相机连接手机APP 拍照时,在手机上可看到拍照数量在增加并将图片自动按合成规则排列出来,可做成一个缩略图大概看到拍摄进程及结果。 5、APP内建全景播放器可随意切换观看模式:平铺模式、360模式、小行星模式,VR模式,水晶球模式,四分割模式等。 6、APP增加录屏模式,可以在打开全景时将观看实时效果录下来并保存在手机固定文件夹里。 7、另外如有可能也将相机有关标定校正一起开发。 工作环境: 相机主要在室内拍摄,环境有较暗和杂光现象需要在算法上进行优化 项目经费: 8万~10万 项目周期: 2个月 项目阶段: 项目已立项,资金已到位 希望供应商: 1、 有相应的技术积累 ,对全景拼接合成有较深理解

Lyft推出一种新的实时地图匹配算法

蓝咒 提交于 2020-09-28 08:28:20
点击上方“3D视觉工坊”,选择“星标” 干货第一时间送达 打车有时也会职业病发作,琢磨一下车辆调度是怎么做的,路径规划算法要怎么写,GPS偏移该怎么纠正等等。不过就是想想而已,并没有深究。这篇是Lyft(美帝第二大打车平台)工程师分享的最近上线的地图匹配算法,非常有参考价值。 作者:Marie Douriez 编译:McGL 当你要求打车时,Lyft 会试着找一个最适合你路线的司机。要做出调度决定,我们首先需要问: 司机在哪里?Lyft 使用司机手机的 GPS 数据来回答这个问题。然而,我们得到的 GPS 数据往往是有噪音的,和道路并不匹配。 位置数据经常有噪音,和道路不匹配。 为了从这些原始数据中得到一个更清晰的图像,我们运行一个算法,输入原始位置并返回道路网中更准确的位置。这个过程称为地图匹配(map-matching)。我们最近开发并发布了一个全新的地图匹配算法,发现它提高了驾驶员定位的准确性,并使 Lyft 的市场更有效率。在这篇文章中,我们将讨论这个新模型的细节。 什么是地图匹配? 地图匹配是这样一个过程,匹配原始GPS的位置到道路网路段,以产生一个车辆路线的估计。 我们为什么需要地图匹配? 在 Lyft,我们有两个主要的地图匹配用例: 在行程结束时,计算司机所行驶的路程以计算车费。 为 ETA 团队实时地提供准确的位置,做出调度决定,并在乘客的app上显示司机的车。

为什么深度神经网络这么难训练?| 赠书

谁都会走 提交于 2020-09-28 01:44:24
导读:本文内容节选自 《深入浅出神经网络与深度学习》 一书,由 Michael Nielsen 所著,他是实验媒体研究工作室的联合创始人,曾是 YC Research 的 Research Fellow。。 本书深入了讲解神经网络和深度学习技术,侧重于阐释深度学习的核心概念。作者以技术原理为导向,辅以贯穿全书的 MNIST 手写数字识别项目示例,介绍神经网络架构、反向传播算法、过拟合解决方案、卷积神经网络等内容,以及如何利用这些知识改进深度学习项目。学完本书后,读者将能够通过编写 Python 代码来解决复杂的模式识别问题。 了解关于深度学习的更多干货知识, 关注CSDN并评论分享你对本文的学习心得或深度学习的见解 ,我们将从中选出5 条优质评论 ,各送出 《深入浅出神经网络与深度学习 》 一本。活动截止时间为 9 月6日 晚8点 。 假设你是工程师,接到一项任务:从头开始设计计算机。某天,你正在工作室设计逻辑电路,例如构建与门、或门等。这时,老板带着坏消息进来了:客户刚刚提了一个奇怪的设计需求——整个计算机的电路深度限于两层,如图5-1所示。 你惊呆了,跟老板说道:“他们疯了吧! ” 老板说:“我也觉得他们疯了,但是客户至上,只能设法满足他们。 ” 实际上,客户提出的需求并不过分。假设你能使用某种特殊的逻辑对任意多的输入执行AND运算

程序员欢乐送(第2期)

被刻印的时光 ゝ 提交于 2020-09-27 23:59:37
程序员欢乐送(第2期) 收录于话题 #程序员欢乐送 59个 对于我来说,我一直保持的追求有三点:技术、快乐、财富。因此,从此三点出发,记录过去一周,我所看到的,感觉值得分享的内容,每周五把欢乐送达。 由于微信不允许外部链接,你需要点击页尾左下角的“ 阅读原文 ”,才能访问文章的链接,文中的所有链接已使用 颜色字体标记 。 「 技术 Technology 」 1、Google APP帮你识别狗狗的品种 喜欢狗狗人士的福音来了,看到一条可爱的狗狗,不知道它的品种怎么办?让Google APP帮你识别吧。目前,该功能貌似只支持iOS端。 Google APP下载地址: 点击查看 当然,首先你要有个iPhone。 2、PyTorch 1.0稳定版正式发布 Facebook在NeurIPS大会上正在发布PyTorch 1.0稳定版。 Facebook在今年5月份公布了该版本的新功能,并在10月举办的PyTorch开发者大会上首次推出它的预览版。 开发者现在可以利用PyTorch 1.0的新功能了。 比如混合前端,可以让开发者在eager和图形模式之间无缝转换。 另外还有改进分布式训练、提供一个高性能的纯C++前端、与云平台深度集成等特性。 此外,Facebook宣布与Udacity合作,免费提供基于PyTorch的AI课程: 课程地址: 点击查看 人生苦短,我用pytorch。 3

人均百万奖金,达摩院青橙奖结果揭晓:钟南山院士寄语,DenseNet作者黄高获奖

六月ゝ 毕业季﹏ 提交于 2020-09-27 23:53:24
「你们处在最好的时候,要记得把握机遇。」——颁奖嘉宾钟南山院士。 机器之心报道,编辑:蛋酱、泽南。 10 位青年科学家,每人 100 万人民币奖金。今天上午,阿里巴巴达摩院青橙奖第三届获奖名单正式揭晓。 在 20 进 10 的最终答辩环节之后,达摩院院长张建锋正式公布了本届达摩院青橙奖学者名单,分别为: 梁文华 国家呼吸研究所 杨诗武 北京大学 赵保丹 浙江大学 聂礼强 山东大学 姜宇 清华大学 冷静文 上海交通大学 何向南 中国科学技术大学 杜子东 中国科学院计算技术研究所 邓岳 北京航空航天大学 黄高 清华大学 在他们之中,最年轻者仅有 28 岁,获奖者的平均年龄也只有 32 岁。除了 100 万人民币奖金之外,每位获奖者还将获得阿里全方位的科研资源支持。 特别值得注意的是,今年的颁奖嘉宾是钟南山院士。在为青橙奖颁奖的前一天,84 岁的钟南山院士刚刚因抗击新冠肺炎疫情斗争中的杰出贡献被授予「共和国勋章」。在 9 月 9 日线上颁奖典礼现场,钟南山以 VCR 寄语的方式表达了他对青年科学家的期待: 「我 35 岁以前还在农村做锅炉工,完全没有机会搞科研。当代青年学者思想的活跃、知识的多元令我印象深刻。你们处在一个最好的机遇时代,要记得把握机遇,年轻人既要有热情,更要有激情。你们要做出一个典范,让研究产生社会效益和经济效益。」钟南山院士说道。 青橙奖设立于 2018 年

查找计算机视觉顶会CVPR/ECCV/ICCV论文的方法大全

末鹿安然 提交于 2020-09-27 23:22:53
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 来源:OpenCV学堂 计算机视觉论文 http://www.cvpapers.com/ 查历年的CVPR论文,到2020截至 https://openaccess.thecvf.com/CVPR2020https://openaccess.thecvf.com/CVPR2019https://openaccess.thecvf.com/CVPR2018https://openaccess.thecvf.com/CVPR2017https://openaccess.thecvf.com/CVPR2016https://openaccess.thecvf.com/CVPR2015 ICCV跟ECCV是每两年一届,分别是奇数年跟偶数年 往年ICCV的论文 http://openaccess.thecvf.com/ICCV2019http://openaccess.thecvf.com/ICCV2017https://openaccess.thecvf.com/ICCV2015 往年ECCV的论文 https://openaccess.thecvf.com/ECCV2018 查论文与代码 https://paperswithcode.com/ 这几个网站可以经常看看: ICCV: http://www.informatik