深度学习

符号主义对深度学习的意义浅谈

南楼画角 提交于 2020-08-12 11:52:36
符号主义人工智能经历过古典时期的专家系统阶段, 中期的知识图谱阶段, 和近期深度学习和符号主义的再次联姻。 那么一个很重要的问题是符号主义为什么会复兴,它对当下的机器学习又有何意义? 参考阅读: Reconciling deep learning with symbolic artificial intelligence: representing objects and relations ​ www.sciencedirect.com 首先, 当下的深度学习有三个最主要的问题,很低的数据使用效率, 泛化能力, 可解释性,都可以从符号主义得到极大帮助。 这一点也不难理解, 所谓符号,多数指我们语言中那些经常被使用的抽象概念,这些概念再不同的任务和环境中被广泛使用组成新的概念,比如红色,圆形等,如果能够在不同任务中学习到这些最基本的元素, 那么无疑将极大的改善数据使用效率和泛化能力。同时, 从视频,声音等信息中提取出的这种符号,几乎一定是和我们的自然语言有所对应,和我们的认知概念有所对应,因此,提取这些符号将极大助力模型的可解释性。从这两个角度看, 符号的确可以解决深度学习的几个根本问题。 更加重要的是,符号的使用和我们的推理认知能力极为相关,这也是为什么在第一代的人工智能时代人们如此重视符号, 因为它是逻辑思维的载体,有了符号我们可以在符号基础上罗列各种运算,进行关系预测和推理等

如何配置一台高效的GPU(深度学习)服务器

梦想的初衷 提交于 2020-08-12 11:27:55
目前GPU深度学习服务器在AI、视频处理、科学计算等领域都有广泛应用。随着NVIDIA推出更多的GPU硬件和工具软件,如何配置一台属于自己的GPU服务器,在开发者的工作中成为了重中之重。 文章大概: 1、硬件平台的搭建 o 深度学习服务器的性能需求 o NVIDIA GPU的性能特点 o 硬件环境的配置搭配要点 2、软件环境的配置 o 深度学习环境的系统配置,环境搭建 o NVIDIA CUDA的安装 o 介绍NVIDIA Deep Learning 相关SDK工具,包括类似于Transfer Learning Toolkit,CuDNN,CuBlas, TesnorRT… o NVIDIA GPU Cloud 介绍 o 成熟的解决方案或者案例 最近开始学习深度学习(Deep Learning)技术,特别是google的Tensorflow深度学习包开源后,深度学习已经成为大数据领域的重大计算革命,配合Teras顶层框架,使得Deep learning的学习成本降低。(百度也开源了飞桨开源平台也不错) 目前Deep learning技术应用越来越广,一切数据都是图,CNN卷积神经网络技术充满了神奇的计算魅力。DL技术广泛应用于:图像处理、人脸识别、自动驾驶、聊天机器人、AI人工智能、机器语言翻译、图片推荐系统、声音处理、音乐作曲、机器写作等领域。 现今,日益完善的深度学习技术和

CAAI线上系列丨“CAAI深度学习专委会”系列讲座 第3讲

↘锁芯ラ 提交于 2020-08-12 10:23:16
  深度学习是实现人工智能应用的核心技术,已经在各种人工智能应用场景中发挥了巨大的作用、取得了突破性的进展。未来,深度学习技术仍将是高效地解决人工智能问题的主要手段。CAAI深度学习专委会的使命是组织和团结该领域的广大科技工作者,积极推动深度学习理论与应用技术的传播。此次,专委会线上系列讲座将围绕深度学习的最新理论研究、技术发展和前沿动态,为提供一个便捷、高效的学术交流和技术合作的平台,为学生和青年科技人员提供丰富的学习资源。   讲座第3期将邀请商汤研究院代季峰博士,为大家带来“VL-BERT:Pre-training of Generic Visual-Linguistic Representations”的报告。      代季峰博士,现任商汤研究院研究执行总监,基础视觉部门负责人。他于2009年获得清华大学自动化系学士学位,2014年获得清华大学自动化系博士学位,导师周杰教授。在2012年至2013年间,他在加州大学洛杉矶分校访学。他于2014年至2019年就职于微软亚洲研究院视觉组。代季峰博士的主要研究领域为计算机视觉中的语义理解问题,和深度学习算法。他在顶级国际会议和期刊上共发表20余篇论文,据Google Scholar统计共计被引用8000余次。他提出了R-FCN物体检测网络,和Deformable ConvNets

CCAI 2020 | 黄铁军:“仿真主义”下的人工智能发展之路

假如想象 提交于 2020-08-12 10:22:39
   CCAI 2020年8月29日-30日   2020年中国人工智能大会(Chinese Congress on Artificial Intelligence 2020,简称“CCAI 2020”)将于8月29日-30日在南京召开。CCAI 2020以“智周万物”为主题,探讨人工智能作为引领未来的战略性技术,如何以周知万物的学术境界赋能未来,带动时代发展,实现互联世界的远大理想。    北京大学信息科学技术学院教授,国家杰青,CAAI Fellow黄铁军将出席本次大会并担任《智能感知与交互专题论坛》论坛主席。    黄铁军 :北京大学计算机科学技术系系主任,数字媒体研究所所长,数字视频编解码技术国家工程实验室副主任,国家杰出青年科学基金获得者,教育部“长江学者”特聘教授。主要研究方向为视觉信息处理(图像识别与视频编码)和类脑计算,累计主持国家级科研项目十多项,发表(含合作)学术论文200多篇,作为主要起草人制定国家标准、ISO/IEC标准 和IEEE标准十数项,申请发明专利八十多项,两次荣获国家科学技术进步二等奖,四次荣获省部级一等奖,并获“中国科协求是杰出青年成果转化奖”和 IEEE计算机学会Computing Now Award。兼任国家数字音视频编解码技术标准工作组(AVS)秘书长(2002~)、中国电子学会理事(2006~)ISO/IEC运动图像专家组 (MPEG

30年前的热门研究,今获经典论文奖,贝叶斯网络之父旧论文「考古」

风流意气都作罢 提交于 2020-08-12 10:22:18
  机器之心报道    编辑:魔王、蛋酱、张倩    一篇 30 年前的论文,因为一次获奖,又重新出现在世人眼前。      近日,图灵奖得主、贝叶斯网络之父 Judea Pearl 在推特上提到,自己在三十年前与当时的博士生 Rina Dechter、Itay Meiri 合著的论文《时间约束网络(Temporal Constraint Networks)》,获得了由人工智能顶级国际期刊 AIJ 颁发的 2020 年经典论文奖。      这篇论文发表于 1991 年,涉及的主题是上世纪八十年代的热门话题——时间约束。目前,该论文在谷歌学术上的被引用次数接近 2500。论文一作 Rina Dechter 被认为是「深度学习」一词的首倡者。      这篇论文的获奖理由如下:   这篇影响深远的论文介绍了用于定量时间推理的时间约束满足问题(TCSP)。TCSP 及其特例——简单时间问题(STP,可在多项式时间内解决)在规划、调度等应用中得到广泛使用。该论文中简洁优雅的问题描述为后续多个方向的研究提供了启发,包括时间不确定性、偏好和其他扩展问题。    论文内容简介      论文链接:http://ftp.cs.ucla.edu/pub/stat_ser/r113-L-reprint.pdf    这篇论文将基于网络的约束满足方法进行扩展,使其包含连续变量

22课时、19大主题,CS 231n进阶版课程视频上线

故事扮演 提交于 2020-08-12 10:21:48
  机器之心报道    编辑:小舟、杜伟    讲 CS231n 的 Justin Johnson 在密歇根大学推出了一套计算机视觉的进阶课程。   计算机视觉在日常生活中已经无处不在。从搜索引擎、图像理解、地图、医疗、无人机、自动驾驶到各类手机 app,都离不开计算机视觉。这些应用中有许多像图像分类和目标检测这样的视觉识别任务,而神经网络方面的进展大大提高了视觉识别系统的性能。    来自密歇根大学的 Justin Johnson 在 2019 年秋季推出了一套新的课程,该课程深入探讨了基于神经网络的计算机视觉深度学习方法的细节。这一课程近日已在 YouTube 上开放 。      课程视频链接:https://www.youtube.com/playlist?list=PL5-TkQAfAZFbzxjBHtzdVCWE0Zbhomg7r    课程概况   这套 2019 年秋季的计算机视觉课程名为「Deep Learning for Computer Vision」,课程讲授者是来自密歇根大学的 Justin Johnson。作为斯坦福大学李飞飞教授的学生,Justin Johnson 曾和李飞飞一起讲授斯坦福大学计算机视觉经典课程 CS231n。      Justin Johnson,图源:https://web.eecs.umich.edu/~justincj/。  

Linux系统入门命令学习经验

寵の児 提交于 2020-08-12 10:07:33
此时此刻我想和大家分享一下我在学习linux过程中的一些经验和教训,如果有人能够正好看到我的这篇文章,希望能够让想学习linux的同学多少获得一点经验,少走一些弯路。能够比较简单、快捷的迅速掌握知识是我们学习的目的,但是我们平常的学习中大部分都有一些人在指导。我大学的专业是电气工程及其自动化,平时的课程也涉及不到 linux ,所以旁边也没有掌握linux的同学能够一块交流,通过自己这段时间的学习,我觉得有些学习总结可以简单的介绍给大家,供大家在开始业余学习linux的时候能够作为一点参考。 大学时期因为爱好,在老师的实验室待过一段时间,老师经常会有一些软件项目。大多是设计一些B/S系统,涉及到Mysql数据库和常用的ssh,通过一些横向项目,增加同学们的实践经验和实际掌握能力。其中经常主要用到的开发语言不是linux而是java,我开始接触linux也是因为在一个项目中需要用到linux,才开始去了解linux的。一开始也是不知道linux是做什么的、有什么用、在哪用,对linux仅存的认识就是它是一款使用linux语言开发的服务器,类似于我们平常使用的Windows,在linux系统中也可以使用一些我们常用的软件,他也有酷狗音乐、有QQ有浏览器等我们平时的常见软件。后来在了解深度学习的时候,好多框架都是在linux上运行的

Dropout的Bagging思想以及使用要点

試著忘記壹切 提交于 2020-08-12 08:46:05
一:Dropout的原理及bagging思想 1:Dropout原理 Dropout是深度学习中应对过拟合问题简单且有效的一种正则化方法。原理很简单:在训练阶段,在每一个Epoch中都以一定比例随机的丢弃网络中的一些神经元,如图一所示,使得每次训练的模型包含的神经元都不同。这种方式使得网络权重在更新过程中不依赖隐藏节点之间的固定关系(隐藏层节点的固定关系可能会影响参数更新过程),同时使得网络不会对某一个特定的神经元过分敏感,从而提高了网络的泛化能力。 图一:Dropout原理图 2:Dropout的Bagging思想 从《百面深度学习》这本书中的相关内容介绍领悟到,Dropout这种以一定比例随机丢弃神经元的方式是一种Bagging的思想:神经网络通过Dropout层以一定比例随即的丢弃神经元,使得每次训练的网络模型都不相同,多个Epoch下来相当于训练了多个模型, 同时每一个模型都参与了对最终结果的投票, 从而提高了模型的泛化能力。在此注意,Dropout与Bagging有一点不同是:Bagging的各个模型之间是相互独立的,而Dropout各个模型之间是共享权重的。 bagging是利用相同数据训练多个模型,然后将各个模型的结果投票或者加权取平均等。 二:Dropout使用要点 1:Dropout参数设置介绍 首先说一下Dropout的参数:官方文档中是这样介绍的: p:

零门槛入门AI开发,明天的这场公开课值得收藏三连

怎甘沉沦 提交于 2020-08-12 08:33:30
  明天,就是 2020 WAIC 开发者日重磅环节了,这场即将开播的公开课值得你点赞、收藏、分享三连。   两天前,2020 WAIC 开发者日全日程揭晓,这是一场包含了 60 位重磅嘉宾、43 场演讲、9 大环节的盛会。其中,有一场为开发者提供三小时极致学习的公开课,值得爱学习的小伙伴们注册观看。   「开发者日百度公开课」由机器之心联合百度组织,基于百度飞桨平台,从 NLP、CV 到零门槛 AI 开发平台 EasyDL,助力学习者掌握人工智能开发技能。   不久之前的「WAVE SUMMIT 2020」深度学习开发者峰会,百度飞桨做了一系列全新发布与升级,能够极大地提升开发者的开发体验。   在这场公开课中,来自百度的四位技术专家将结合自身多年深耕 AI 开发领域的经验,分别从智能对话技术、视觉技术、EasyDL 平台三个方向做分享,也将演示如何进行实际操作,手把手带领观众学习 AI 开发。      有关「开发者日百度公开课」课程详情,可查看文章:《3 小时极致学习 AI 开发,WAIC 开发者日有一堂必上公开课》。   纵深布局人工智能技术十数年,开发者一直是百度极为重视的力量。当前百度飞桨累计开发者数量已超过 194 万,服务企业数量达到 84000 家,基于飞桨开源深度学习平台产生了 23.3 万个模型。   除了这场公开课,百度集团副总裁

等等党的胜利:树莓派4首发8GB版,售价75刀,还可尝鲜64位操作系统

冷暖自知 提交于 2020-08-12 07:40:59
  机器之心报道    参与:Racoon、张倩、Jamin    树莓派4刚刚宣布了最新升级:新出8GB内存版本,售价75刀,就问你香不香?      去年 6 月,树莓派悄然发布了第四代产品 Raspberry Pi 4。这一新版本经过了从里到外的全面革新,带来了 2-4 倍的计算性能提升,还配置了新的操作系统,接口也全面升级。树莓派开发机构(Raspberry Pi Foundation)称,这款设备可以提供「与入门级 x86 PC 系统相媲美的桌面性能」。   推出一年,树莓派 4 已经卖出了近 300 万台。但美中不足的是,树莓派 4 的内存最大只有 4G。官方博客表示,树莓派使用的 BCM2711 芯片可以寻址高达 16GB 的 LPDDR4 SDRAM,但 8G 的 LPDDR4 封装一直是一个障碍,因为这个封装必须是为树莓派单独设计的。这使得 8GB 版本的研发周期要比预期中长一些。   不过在最近的这次更新中,开发团队表示,他们在合作伙伴美光的帮助下克服了这个障碍,带来了 8GB 的树莓派 4,售价 75 美元。      8GB 的树莓派是个什么概念?官博描述了这样一些应用场景:无论你是想编译、链接大型软件还是在上面运行繁重的服务器负载,这款树莓派都是你的最佳选择。   在硬件上,为了提供更高的峰值电流以匹配 8GB 内存版本的需求,新版本还从电路板右侧靠近