深度学习

CCAI 2020实录丨戴琼海:全脑观测启发下一代AI算法

≡放荡痞女 提交于 2020-11-01 06:23:14
   目前我们还无法精细到神经元级别的观测,只能从功能层面理解大脑,但这些成果也启发了很多经典的人工智能算法,例如卷积神经网络启发自猫脑视觉感受野研究,胶囊网络启发自脑皮层微柱结构研究。在未来,我们能不能深入到神经元的层面研究大脑,是非常重要的一步。   8月29日至30日,主题为“智周万物”的2020年中国人工智能大会(CCAI 2020)在位于江苏南京的新加坡·南京生态科技岛举办。   在大会上,中国工程院院士戴琼海做了主题为《人工智能:算法·算力·交互》的特邀报告,从算力、算法与人机交互三方面展开了分享,指出光电智能计算是未来算力发展的一大候选,深度学习遭遇算力和算法瓶颈,全脑观测对于启发下一代AI算法至关重要,在人机交互的发展中,我们要谨记图灵的教诲,完善AI伦理,并且机器视觉、触觉的协同是一大技术重点。      以下是演讲全文,AI科技评论进行了不改变原意的整理: 光电计算推动AI算力飙升   在人工智能发展的时代,特定学科的定义越来越含糊,交叉学科成为机器学习的特点。同时,人类在脑力层面进一步依赖机器,并逐渐把更多大脑思考和不可解析的问题交给机器来执行。这其中也涉及到“力量”的问题。   但是,我们发现,在许多由机器辅助或代替人类处理问题的领域里,如无人系统、量子计算、纳米科技、物联网等,机器的“力量”还不够,原因在于:现有的许多模型和算法还达不到机器学习的需求。  

吴恩达新书《Machine Learning Yearning》完整中文版 PDF 下载!

五迷三道 提交于 2020-11-01 05:50:40
《Machine Learning Yearning》 是吴恩达历时两年,根据自己多年实践经验整理出来的一本机器学习、深度学习实践经验宝典。 里面讲的机器学习课程比较浅显易懂,很适合数学基础不是很好的人自学,最近中文版也开放下载阅读了。 如何获取? 1. 识别并关注下方公众号; 2. 在下面公众号后台回复关键字「 1000 」。 👆长按上方二维码 2 秒 回复「 1000 」即可获取资料 扫码并关注下方二维码,后台回复 ” 1000 “ 获取 PDF: 👆长按上方二维码 2 秒 回复「 1000 」即可获取资料 本文分享自微信公众号 - 五分钟学算法(CXYxiaowu)。 如有侵权,请联系 support@oschina.cn 删除。 本文参与“ OSC源创计划 ”,欢迎正在阅读的你也加入,一起分享。 来源: oschina 链接: https://my.oschina.net/u/4010368/blog/4669807

TAGNN论文解读——SRGNN的进阶版本

谁说我不能喝 提交于 2020-11-01 03:30:15
hi各位大佬好,我是菜鸟小明哥(其实我也是大佬,哈哈,都是大佬)。 SRGNN 已经 初步完成 实际应用, 效果还好 ,有用的 参考来这里 。据说原paper大佬已经 更新换代了GNN ,也就是TAGNN,望文生义就是“他的GNN”,我啥时候发个“WOGNN”,也就是“我的GNN”,hehe。本文依旧 粉丝可见 ,年底回馈粉丝福利。(不喜欢我翻译的就别看,看过了又瞎BB,你是闲的蛋疼吗?), 代码在此 , paper在此 。 真正意义上的 序列推荐 , SRGNN算上一个 ,从序列到序列,无需考虑用户的id,当然要记住是哪个用户的点击序列,不然怎么给他推(infer阶段)。 For Video Recommendation in Deep learning QQ Group 277356808 视频推荐深度学习加这个群 For Visual in deep learning QQ Group 629530787 视觉深度学习加这个,别加错 I'm here waiting for you 别加那么多,没必要,另外,不接受这个网页的私聊/私信!!! 1-抛出问题,提出解决方案 基于会话的推荐应用很广,但他们的那些方法将会话压缩为一个固定的向量表达,而没有考虑预测的目标item。这种固定的向量将会限制推荐模型的能力,也就是目标item的多样性和用户的兴趣

Keras深度学习应用1——基于卷积神经网络(CNN)的人脸识别(上)

僤鯓⒐⒋嵵緔 提交于 2020-10-31 17:41:25
基于CNN的人脸识别(上) 代码下载 一、 CNN概述 1.1 CNN发展历程 1.2 CNN基本结构 二、 CNN算法原理 2.1 CNN基本网络结构 2.1.1输入层 2.1.2卷积层 2.1.3池化层 2.1.4全连接层 2.1.5 激励层 具体代码实现可参看 Keras深度学习应用1——基于卷积神经网络(CNN)的人脸识别(下) 代码下载 Github源码下载地址: https://github.com/Kyrie-leon/CNN-FaceRec-keras 一、 CNN概述 1.1 CNN发展历程 卷积神经网络由生物学自然视觉认知机制启发而来。1962年,诺贝尔奖得主D.H.Hubel和T.N.Wiesel,这两位学者通过对猫脑部皮层中特定的神经元进行研究时,发现了其独特的网络结构。根据这个启发有学者提出了新识别机(recognition)的概念,这也是深度学习中第一个在真正意义上实现的卷积神经网络。自此以后,科学家们开始对CNN进行了深入的研究和改进。 卷积神经网络是属于前馈神经网络下多层神经网络的一种深度机器学习方法,如下图所示,可以看出神经网络的大致分布。 图1-1 神经网络分布图 与传统的图像处理算法相比,CNN的优点为它能够有效避免在前期准备中,需要对图像进行大量的、繁琐的人工提取特征工作。这也说明,CNN能够直接从图像原始像素出发,只需通过一些预处理过程

机器视觉领军学者沈春华,获澳大利亚科研终身成就奖!专访

十年热恋 提交于 2020-10-31 09:57:45
  凭一己之力将澳大利亚机器学习研究院拉至全球排名第四;GitHub 1400 多颗 Star、并用于 Top 级手机厂商的视觉处理;这就是程序员口中的 “CV 大牛” 沈春华团队的“战绩”。   目前,沈春华在澳大利亚阿德莱德大学担任计算机科学教授。这位本科毕业于南京大学、后在阿德莱德大学获得博士学位的中国科学家,其主要研究机器学习和计算机视觉,而计算机视觉的终极目标是建立一个具有人类表现的视觉系统。      图 | 2019 年沈春华回国参会   2012 年,沈春华获得澳大利亚研究委员会的未来学者称号。除教职之外,他还是澳大利亚研究委员会机器人视觉卓越中心的科研负责人。从阿德莱德大学网站获悉,沈春华上月被列为澳大利亚科研终身成就奖,是工程与计算机类奖项的 5 名获选人之一(https://specialreports.theaustralian.com.au/1540291/9/)。   计算机排名网站 CSRanking 显示,沈春华是过去 10 年间在计算机视觉方向 3 大顶级会议发表论文最多的在澳学者。他的科研成果和产出是阿德莱德大学下属的澳大利亚机器学习研究院 (Australian Institute for Machine Learning,AIML) 能在 CSRanking 上排名世界第 4 的主要原因之一。   鉴于澳大利亚机器学习研究院的国际声誉

19个神经元控制自动驾驶汽车,MIT等虫脑启发新研究登Nature子刊

血红的双手。 提交于 2020-10-31 09:50:42
   编辑:魔王、泽南    这种新型智能系统模仿线虫的神经系统来高效处理信息,比目前具有数百万参数的神经网络架构更加稳健、更易解释且训练速度更快。目前,该研究刊登在《自然-机器智能》子刊。      将生物启发神经网络用于自动驾驶汽车。    深度神经网络和其他方法   众所周知,当数据量足够多时,深度监督模型会被训练得很好,但目前的深度学习仍存在泛化性能不好和训练效率不高的问题,研究人员一直在寻求构建智能模型的新方法。当前人们探求的方向总是更深的网络,但这意味着更高的算力消耗。因此正如人们所思考的那样,必须寻找一种需要更少数据或更少神经网络层的方法,让机器实现智能化。   自动驾驶汽车是当前机器学习研究者和工程师们正在探索的最复杂任务之一。它覆盖很多方面,而且要求必须高度稳定,只有这样我们才能保证自动驾驶汽车在道路上安全运行。通常,自动驾驶算法的训练需要大量真实人类驾车的训练数据,我们试图让深度神经网络理解这些数据,并复现人类遇到这些情况时的反应。      自动驾驶算法的端到端表示。    脑启发的智能系统   最近,来自奥地利科技学院(IST Austria)、维也纳工业大学(TU Wien)和麻省理工学院(MIT)的研究者成功训练了一种全新的人工智能系统来控制自动驾驶汽车。   该方法受线虫等小型动物大脑的启发,仅用数十个神经元即可控制自动驾驶汽车,而常规深度神经网络方法

全球对话技术顶赛DSTC9落幕,百度NLP开源PLATO-2斩获四项冠军

会有一股神秘感。 提交于 2020-10-31 09:50:21
  机器之心发布    机器之心编辑部    全球人工智能学术竞赛 DSTC 是对话系统技术领域的顶级赛事。2020 年度第九届国际对话技术竞赛 DSTC9 共设有 4 个赛道 (Track-1~Track-4),主办方包括 Facebook、亚马逊、微软、卡内基梅隆大学、清华大学等,参与者广泛覆盖了企业和高校的参赛团队。   近期 DSTC9 官方陆续公布各个赛道排名。百度参与了 DSTC9 前 3 个赛道中 4 项任务的角逐,并在最终的榜单中拔得头名,成绩令人瞩目。这些赛道全面涵盖了开放域闲聊、知识对话、任务型对话等关键问题。据悉,百度在这些任务中所使用的核心技术,均基于其最近开源的开放域对话模型 PLATO-2。   PLATO-2 是基于隐空间技术的大规模开放域对话模型,参数规模高达 16 亿,可就开放域话题深度畅聊,在中英文效果上,已全面超越 Google Meena、Facebook Blender、微软小冰等先进模型。PLATO-2 采用了课程学习进行训练,其过程包括两个阶段:第一阶段,基于简化的 “一对一” 映射,训练得到基础的回复生成模型;第二阶段包含生成 - 评估两个模型,针对开放域对话的 “一对多” 问题,通过引入离散隐变量进行建模,训练得到更高质量的回复生成模型,同时训练评估模型,从多个候选中选择出最合适的回复。这种框架具有很强的通用能力

目标检测Anchor的What/Where/When/Why/How

妖精的绣舞 提交于 2020-10-31 06:22:22
编译|yanwan,https://zhuanlan.zhihu.com/p/150332784 来 源|https://www.wovenware.com/blog/2020/06/anchor-boxes-in-object-de tection-when-where-and-how-to-propose-them-for-deep-learning-apps/%23.XvFzo0YzY2w 本文仅作学术分享,如有侵权,请联系后台作删文处理。 也许你正在学习计算机视觉的路上,并且已经深入研究了图像分类和滑动窗口检测器。 在掌握了这些概念之后,了解最新技术(SOTA)目标检测,往往会变得令人望而生畏和晦涩难懂,尤其是在理解 Anchor 时。 毋庸讳言,深入大量流行的YOLO、SSD、R-CNN、Fast RCNN、Faster RCNN、Mask RCNN和RetinaNet,了解 Anchor 是一项艰巨的工作,尤其是在您对实际代码了解有限时。 如果我告诉你,你可以利用今天深入学习目标检测背后的 Anchor 呢?本文目标是帮助读者梳理Anchor的以下内容: What :anchor是什么? Where :如何以及在何处对图像生成anchor以用于目标检测训练? When :何时可以生成anchor? Why: 为什么要学习偏移而不是实际值? How

阿尔法背后的人工智能离我们多远

感情迁移 提交于 2020-10-31 05:33:37
今日,谷歌AlphaGo首战赢得了围棋冠军李世石,绝对是占领了各大媒体的头条,引来的热评,简直是铺天盖地,相信无论是输赢都会带来人工智能的推广和普及。 谷歌董事会执行主席埃里克·施密特说:“这次对决无论哪方笑到最后,终究都是人类的胜利,人类的智慧又向前迈出一步,我们的世界将更加美好。” 国内很多科技大佬,网络名人也都对此事发表了评论,李开复认为阿尔法这次不会赢李世石,但总有一天会胜利,如王小川表示阿尔法会大胜李世石,老罗曾经评价过人工智能的一句话:“人工智能就像一列火车,它临近时你听到了轰隆隆的声音,你在不断期待着它的到来。他终于到了,一闪而过,随后便远远地把你抛在身后”。 小猿相信这也会使人工智能领域更加的热门,背后的人工智能算法,神经网络深度学习,相信也会在未来应用到人们的生活中,开发出更高的逼格更高的科技产品来改变人们的生活。 近年来越来越多的科技巨头投入巨资研究人工智能,相信BAT都看到了人工智能后的商业价值,小猿也希望人工智能更多的应用到工业控制领域,造福人类,促进工业进步,正好在大学小猿也接受过一点人工智能的课程学习,相信这次的大战也会促进高校学生尤其是控制工程人工智能专业的学生更加喜欢自己的专业,这背后的算法还是很值得我们研究研究。 那么各位猿友你们怎么看? 本文分享自微信公众号 - 嵌入式程序猿(InterruptISR)。 如有侵权,请联系 support

AI 圣经 PRML《模式识别与机器学习》官方开源(附中文版下载)

旧巷老猫 提交于 2020-10-31 04:06:00
相信任何一个搞机器学习、深度学习的人都应该听说过一本经典教材:《Pattern Recognition and Machine Learning》,中文译名《模式识别与机器学习》,简称 PRML。出自微软剑桥研究院实验室主任 Christopher Bishop 大神之手。对,就是豆瓣评分 9.5 的这本书。 毫不夸张地说,PRML 当之无愧算得上是 AI 领域的圣经了。PRML 涵盖面广,语言通俗,例子和习题更加详细,附带更多基础性的讲解和指引,难度梯度设置更为合理,是其深受广大中老年 PHD 朋友喜爱的原因。 许多领域的学生和研究者都可以用到它,包括机器学习,统计学,计算机科学,信号处理,计算机视觉,数据挖掘和生物信息学等。 PRML 内容十分丰富,共有 14 章的内容,每一章都是干货满满。整体目录如下: 第一章 介绍 第二章 概率分布 第三章 线性回归模型 第四章 线性分类模型 第五章 神经网络 第六章 内核方法 第七章 稀疏内核机器 第八章 图形模型 第九章 混合模型和EM 第十章 近似推断 第十一章 采样方法 第十二章 连续潜在变量 第十三章 顺序数据 第十四章 组合模型 这本书虽然很经典很干货,但是书籍总页数达 700 多页,而且全书都是英文。相信很多人在啃这本书的时候有遇到了很多困难! 重点来了! 就在刚刚,PRML 被微软“开源”了。 这本书的官网为: https: