自动驾驶

AI: 陆奇直播万字实录:正视挑战,把握创业创新机会

独自空忆成欢 提交于 2020-08-13 13:36:30
AI: 陆奇直播万字实录:正视挑战,把握创业创新机会 导读 : 在疫情带来的新格局里,有哪些是创业者可以抓住的长期趋势?前沿技术的突破带来哪些创新和创业新机会?创业者应该如何在“突变”中找到自己的“加速”机会?奇绩创坛的投资逻辑是什么?针对这些问题,奇绩创坛(原YC中国)创始人兼CEO陆奇做了一场以《正视挑战,把握创业创新机会》为主题的直播, 分享了 奇绩创坛视角下的创新创业全局框架和底层逻辑 。 陆奇,毕业于复旦大学,获计算机科学学士、硕士学位,1987年毕业后留校执教。此后就读于卡耐基梅隆大学,获计算机科学博士学位。陆奇博士除了在学术界发表过一系列高质量的研究论文,还持有40多项美国专利。目前为奇绩创坛(原丫C中国)创始人兼CEO,曾任百度集团总裁兼COO、微软全球执行副总裁、雅虎执行副总裁。 目录 直播全文实录 1. 如何看待“正视挑战”和“把握机会” 2. 技术的发展趋势 3. 从人类历史来观察技术发展的趋势 4. 技术整体的发展前沿 5. 新格局将如何加速技术发展 6. 从需求趋势看C端创新机会 7. 从需求趋势看B端创新机会 8. 从市场趋势看创新机会 直播全文实录 视频回放链接 : https://edu.csdn.net/huiyiCourse/detail/1319 演讲PPT下载 : https://pan.baidu.com/s

第九期直播|《深度相机与应用》精彩回顾

浪尽此生 提交于 2020-08-13 13:06:00
点击 上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 大家好,本公众号现已开启线上视频公开课,主讲人通过B站直播间( bilibili号:3D视觉工坊 ),对3D视觉领域相关知识点进行讲解,欢迎大家的关注。 往期精彩: 第一期:东北大学李奇 《 基于深度学习的物体抓取位置估计 》 第二期:上海交通大学沈毅君 《相机标定的基本原理与经验分享》 第三期:西安交通大学潘浩洋 《 基于点云的三维物体表示与生成模型 》 第四期:北京科技大学李阳阳《 求职经验分享 》 第五期:ChaucerG《 聊聊目标检测和秋招那些事 》 第六期:镭神智能创始人雷祖芳《 基于激光雷达的感知、定位导航应用 》 第七期:东北大学龚益群《 图像对齐算法 》 第八期:武汉大学李迎松《 立体视觉之立体匹配与实战 》 本期由北京中科慧眼CTO崔峰分享,主题为《深度相机与应用》,下面我们来一起回顾一下吧。 视频观看地址: 视频还在上传审核中,请关注工坊君官方bilibili账号:3D视觉工坊:https://space.bilibili.com/483478083,上传成功后便可观看哦~ PPT回顾: PDF获取方式 关注公众号【3D视觉工坊】,并在后台回复“深度相机”获取百度云链接。 本文仅做学术分享,如有侵权,请联系删文。 下载1 在「 3D视觉工坊 」公众号后台回复: 3D视觉 , 即可下载

图像特征点、投影变换与图像拼接

六眼飞鱼酱① 提交于 2020-08-13 13:05:42
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 一、全景拍照中的投影变换 在32. 镜头、曝光,以及对焦(下)中,我给你介绍了各种各样的相机镜头,也介绍了视场角(FOV)这个概念。现在咱 图像特征点、投影变换与图像拼接 们手机上的主摄像头一般FOV是七、八十度左右,有的更小一些。但人类的视觉系统FOV可以达到 。 广角镜头、鱼眼镜头能够让你拍摄出非常大FOV的图像。但它们非常昂贵,而且具有强烈的畸变。 全景拼接这个功能也能够让你拍摄出很大FOV的图像,你很可能已经使用过这个功能了,它甚至可以拍摄出水平FOV达到360o的图像。我们可以比较下。这样拍摄出来的图像比起鱼眼镜头的畸变小很多。 人类的视角范围200 x 135° 全景拼接图像视角范围360x180° 全景拼接是通过先拍摄不同视角的多张图像,然后将它们拼接而成的: 那么,像下面这样几个视角拍摄的图像,我们是不是直接拼接平移这些图像然后拼接就可以了呢? 多个视角拍摄的图像 很显然,不管我们是把左边的图像摆在上面,还是把右边的图像摆在上面,都会观察到“对不齐”的现象(看看中间栏杆的断裂缝): 仅仅平移图像拼接时会对不齐 那应该怎么办呢?这时候就要用到我在28. 图像扭曲中介绍的图像的Warping技术。适当的Warp图像然后再做拼接,能够使得我们得到完美的全景图像: Warping是一种改变图像像素位置的技术

关于两种PID算法(位置型和增量式)的linux下的C++工程实现

岁酱吖の 提交于 2020-08-13 12:59:56
网上有很多关于这两种控制算法的实现,但是大多基于c语言,而且用的是c语言中的结构体,看起来比较繁琐。所以我利用c++面向对象的结构以及STL中vector容器来编写两种算法,看起来简洁多了。在编写的过程中,更深刻理解了如何在实际工程中运用PID控制算法。 话不多说,先上代码 https://github.com/JackJu-HIT/PID 。 关于两种算法的原理,我直接粘贴我们老师上课的课件图片了,自己打字太费劲! 上述就是位置型pid算法,核心就是u(t)=kp error(t)+ki(sum(error))+kd (error(t)-error(t-1)),积分离散化就是求和,微分求和就是查分,这么理解就可以,如果你要是想理解比例、微分、积分环节对系统会产生什么影响啊,上升时间、超调量、稳定裕度等指标,建议你最好从连续系统理解,类似时域分析法、频域分析法、根轨迹之类的,具体参见自动控制原理即可。 同样增量型的pid算法,就是从位置型推出来的,你把u(k)-u(k-1)化简一下就能得到下图那个式子。还是盗用老师课件的图: 简单说增量型pid就是:u(t)-u(t-1)=kp*(error(t)-error(t-1))+ki*(error(t))+kd*(error(t)-2*error(t-1)+error(t-2))。增量型比位置型好在哪里

腿式机器人激光SLAM系统

我是研究僧i 提交于 2020-08-13 08:42:19
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 作者:robot L | 来源: 知乎 https://zhuanlan.zhihu.com/p/148855755 本文仅做学术分享,如有侵权,请联系删除。 主要内容 基于点云分割和CNN的LiDAR点云回环检测方法。 改进的点云配准失效检测方法,效率更高。 基于运动惯性里程计,AICP,回环的因子图LiDAR-SLAM系统,可以在腿式机器人上运行。 不足 处理频率只有1Hz,远低于激光频率10Hz。 没有和SOTA LiDAR-SLAM算法对比。 M. Ramezani, G. Tinchev, E. Iuganov, M. Fallon. Online LiDAR-SLAM for Legged Robots with Robust Registration and Deep-Learned Loop Closure. IEEE International Conference on Robotics and Automation , 2020. 摘要 在本文中,我们提出了一种基于因子图的3D LiDAR SLAM系统,组合了SOTA深度学习的基于特征的回环检测子,使得腿式机器人能够在工业环境中定位和建图。点云先通过惯性运动学状态估计器对齐,然后再使用ICP配准对齐。为了闭环,我们使用使用一种回环策略

硅谷快意恩仇录:战斗力爆表的10对科技公司CEO之争

青春壹個敷衍的年華 提交于 2020-08-13 07:09:43
来源:businessinsider 编辑:永上 “ 相信硅谷大公司间是有一些亲密友谊的,但今天我们主要看看那些科技巨头CEO之间的不和。他们其中一些是友好的竞争对手,其中一些可能只是比较容易被惹毛。蒂姆·库克和马克扎克伯格多少年来,一直公开争吵;而马斯克和贝佐斯在太空问题上,彼此一直相互挖苦。 硅谷是科技公司的天堂,吸引最有创造力的人来此实现自己的想法。这里孕育着看似千奇百怪,但最终成为科技前沿的互联网技术。 而这些聪明大胆的极客们,互相之间并不都是好朋友。他们想法各异,大胆实践,决定数十亿美元的投资。他们与大自然竞争,争论着世界上最难解决的问题。 今天我们就来看看,那些大公司的CEO们,日常是如何battle的。 0 1 埃隆·马斯克和杰夫·贝佐斯 最近频频出现在大众视野的,特斯拉的CEO埃隆·马斯克,他在Twitter上日常嘲讽亚马逊CEO杰夫·贝佐斯。一家是世界最炙手可热的汽车制造商,一家是世界互联网电商巨头。看似毫无关系,但在外太空领域,却是死对头。 两人有着共同的兴趣,进军太空,相互间却不是惺惺相惜的好友。 2000年,贝佐斯创办了他的火箭公司蓝色起源,2002年,马斯克创办SpaceX。两人曾共进晚餐,事后马斯克有些生气「事实上,我尽了最大努力给出了好的建议,但他基本忽略了这些建议」。 2013年,两家公司竞争升温,所谓「敌人的敌人就是朋友」

1秒替换视频背景,阿里AI获CVPR 2020四项世界冠军

谁都会走 提交于 2020-08-13 06:57:53
近日,全球计算机视觉顶会CVPR 2020公布了各大挑战赛结果,阿里巴巴获得四项比赛的世界冠军,其中,在难度最高的DAVIS挑战赛中,阿里提出了可以精准预测视频目标位置的方法,并且首次以超过80分的成绩夺得第一名。 CVPR是AI领域规模最大的会议,被誉为计算机视觉领域“奥斯卡”,其覆盖范围涵盖计算机视觉领域的前瞻学术研究和工业应用,会议的研究成果体现了视觉AI领域研究的趋势。由于视频会议、直播等应用逐渐普及,今年顶级科技公司的研究成果逐步从图像延伸到了视频领域,涵盖视频压缩、视频分割、三维视觉等领域。 和图像识别不同,AI分析理解视频的技术门槛更高,长期以来,业界在视频AI技术的研究上鲜有重大突破。以CVPR会议难度最高的比赛之一DAVIS( Densely Annotated Video Segmentation)为例,该比赛需要参赛团队精准处理复杂视频中物体快速运动、外观变化、遮挡等信息,过去几年,全球顶级科技在该比赛中的成绩从未突破80分。 据介绍,阿里参加的四项比赛均为视频技术领域。在DAVIS挑战赛中,阿里率先实现了突破,以 84.1 的分数获得了第一名,比去年的第一名提高了7.4分。 阿里AI以84.1分的成绩获得DAVIS比赛第一名 公开资料显示,阿里提供了一种全新的空间约束方法,打破了传统STM方法缺乏时序性的瓶颈

GAITC专题论坛丨看智能交通如何助力“交通强国”建设

南楼画角 提交于 2020-08-13 06:52:23
     2020全球人工智能技术大会将于7月25-26日登陆杭州未来科技城。除了令人瞩目的大会主旨论坛,同期举行的20场专题论坛嘉宾层次高、主题范围广,聚焦模式识别、脑科学与人工智能等人工智能多个热门领域,内容精彩纷呈,观点将极具创见和现实针对性。   智能交通不仅为城市道路装上了“大脑”,更是“交通强国”的重要技术支撑。7月26日上午,由CAAI智能交通专委会主任、清华大学教授张毅,CAAI智能交通专委会秘书长、武汉理工大学副校长、教授吴超仲担任专题主席的 交通系统群体智能决策与控制专题论坛 将拉开帷幕。从交通大国到交通强国,交通系统群体智能决策与控制将迎来怎样的新挑战?锁定本场论坛,我们一起聆听专家的洞见。 大会官网 论坛主席       张毅    CAAI智能交通专委会主任    清华大学教授   2013年获国务院颁发的政府特殊津贴。1999年入选教育部骨干教师资助计划,2001年入选交通部跨世纪优秀人才,2006年入选国家“863”先进交通技术领域领域专家。主要从事车路协同和智能驾驶关键技术研究与实现、现代城市道路交通控制与分析,以及智能交通系统集成技术研究与实现等;同时研究新一代传感器及其网络系统、先进检测方法和信息处理技术等。       吴超仲    CAAI智能交通专委会秘书长    武汉理工大学副校长、教授   长期从事交通安全、智能交通、车路协同

美商务部修改禁令:允许华为与美国公司在5G等标准上合作

≡放荡痞女 提交于 2020-08-13 06:48:15
   为让美国公司保持技术领先,美国商务部正出台重新允许与华为开展业务的政策,新规定最早本周二生效。   本周一, 美国政府证实了路透社的一篇报道:白宫正在修改禁止美国公司与华为展开业务的禁令,以允许与这家 5G 技术领先的公司共同制定下一代 5G 标准 。      据外媒路透社援引知情人士的报道,美国商务部和其他机构已经签署了有关规则变更的决定,该变更正在等待《联邦公报》的公布。这项规则已于上周五发送至联邦公报,最早将在周二发布。联邦公报是美国联邦政府每日出刊的公报文件,其内容可概分为美国联邦机构的规则,及拟议中的规则与公告。   美国商务部部长威尔伯 · 罗斯(Wilbur Ross)在昨天发送给媒体的声明中证实了这一点。   「美国不会放弃在全球创新中的领导地位,」罗斯说道。「商务部致力于通过鼓励美国工业全面参与并倡导美国技术成为国际标准,来保护美国的国家安全和外交政策利益。」   美国商务部周一晚些时候公开宣布了这一举动,指出美国参与标准制定影响着 5G、自动驾驶、人工智能以及其他尖端技术的未来。在电信行业中,预计 5G(第五代无线网络)将为高速视频传播、自动驾驶等领域提供动力。   而新的规定将确保华为广泛参与标准制定组织。      根据新的商务部工业和安全局(BIS)规则,在华为被列入「实体名单」之前与美国机构之间流通的,面向标准制定的技术

CVPR 2020 论文大盘点-全景分割与视频目标分割篇

本秂侑毒 提交于 2020-08-13 04:57:07
点击上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 今天的内容关注于全景分割( Panoptic Segmentation )和视频目标分割( Video Object Segmentation,VOS )。 什么是全景分割? 全景分割 即同时实现对背景的语义分割和前景的实例分割。 这是图像分割领域近来的新趋势,请看下图: 图片来自论文 Panoptic Segmentation ,CVPR 2019 上图中,(b)语义分割的结果是相同语义的对象标成相同的颜色,(c)实例分割是对目标前景分个体的像素级标注来,(d)全景分割结合了语义分割和实例分割的结果。 全景分割在CVPR 2019 被提出,但一年多来已经引起广泛关注,CVPR 2020 总计有 8 篇文章。 什么是视频目标分割? 对视频中感兴趣的目标进行分割,给定第一帧mask的VOS称为one-shot VOS (单样本VOS),无第一帧目标mask的称为zero-shot VOS(无样本VOS)。(大家可以在下述论文 Learning Video Object Segmentation From Unlabeled Videos 中了解) 下图为实例级视频目标分割的例子: 图片来自论文 Video Object Segmentation with Re-identification,CVPR 2017