神经网络

限时免费 | 人工智能项目实战训练营,给你一个成为AI算法工程师的机会

旧街凉风 提交于 2020-08-16 12:16:11
在当前的就业环境下,人工智能工程师的高薪优势凸显,可却有不少人陷入了瓶颈期,不知道该朝着哪个方向发展自己, “掌握理论知识但缺乏实战经验” 成为了求职晋升路上的短板,硬件设备的不足和自主学习的惰性也成为了前进路上的绊脚石。 在总结了不少学员的急迫需求之后,开课吧人工智能学院特此开展 《人工智能项目实战训练营》 ,开设多个 方向课程 ,帮你找到准确定位。与此同时, 独家实训平台+助教陪伴式学习 也帮你解决学习上软硬件的各种问题, 360度无死角 为你的安心学习铺平道路! 我该如何参加? ① 扫描下方二维码添加课程顾问 获取实训平台说明书以及更多课程福利待遇 ???????????? ② 根据需求自主选择 适合自己 的课程内容 ③ 一线讲师天团 本课程的老师,均来自国际名校(清华大学、佛罗里达大学、浙江大学等)且均具备世界知名企业(阿里巴巴、商汤科技、IBM中国实验室等)的实际工作经验。 01 02 03 04 05 滑动查看更多 ④ 开通实训平台权限,进行自主训练 独家自研线上教学环境, 免除 学员上课前下载步骤,课上 无需 配置环境,代码驱动,可以 实时跟随老师 的授课思路。同时能够 在线进行编辑运行,随学随用 。 独家在线实验环境,让你的上课过程从“只读”模式,转变为“编辑”模式。 ⑤ 根据所选课程进入相对应的班级群, 实现“ 助教+班主任贴心辅导 ”的高效率学习方式: 专人督促

2020 KDD 时间序列预测 Papers

。_饼干妹妹 提交于 2020-08-16 12:09:28
近期KDD放出已接收论文,笔者对其中与时间序列预测相关的论文进行了筛选。 KDD官网还未放出原文,列表中的链接为笔者自行搜索(arxiv) * A Geometric Approach to Time Series Chains Improves Robustness * Connecting the Dots: Multivariate Time Series Forecasting with Graph Neural Networks * ASGN: An Active Semi-supervised Graph Neural Network for Molecular Property Prediction https:// arxiv.org/abs/2005.1165 0 * Multi-Source Deep Domain Adaptation with Weak Supervision for Time-Series Sensor Data https:// arxiv.org/abs/2005.1099 6 * Attention based multi-modal new product sales time-series forecasting * BusTr: predicting bus travel times from real-time traffic

搞定JVM基本原理和面试题,看看这几本书妥妥够了!

我的梦境 提交于 2020-08-16 09:28:28
点击蓝色“程序员书单”关注我哟 加个“星标”,每天带你读好书,看好文! ​ 在介绍本书单之前,我想先问一下各位读者,你们之前了解过JVM么,如果有了解过,那么了解的程度又如何呢。经过了10多年的发展,Java Web从开发框架到社区都已经非常成熟,很多程序员都可以通过使用框架很快速地搭建起一个Java Web应用,特别是近几年springboot大热,干脆连配置都不需要了解了,直接一键式编译部署运行,让Java工程师的学习成本变得越来越低。 但于此同时,互联网公司对于Java的应用场景也在不断地升级换代,从单机部署再到分布式,从SOA再到微服务,Java后端技术栈变得更加庞大,对于工程师的要求也越来越高,特别是对于大公司来说更是如此,也正因为如此,对Java工程师的考察已经不限于Java Web的那套东西了,企业往往会提出更高的要求,比如熟悉Java并发编程和JVM调优,了解分布式技术、微服务以及中间件等等。 而今天的这份书单就会来推荐一些JVM虚拟机方面的好书,对于一个Java工程师来说,只有了解了JVM虚拟机之后,你才能够理解很多JDK中的设计和实现,同时也能够为你做JVM调优,问题排查等工作时提供理论基础。 Java虚拟机系列书单 ​ 深入理解Java虚拟机 这本书在Java圈内基本可以算是前无古人后无来者的一本书了,它在13年首次出版

图神经网络的表达能力,究竟有多强大?

≯℡__Kan透↙ 提交于 2020-08-16 08:44:21
     作者 | Mr Bear   编辑 | 丛 末   近年来,随着图神经网络在各个领域的火热应用,越来越多的学者试图从图论的角度对图神经网络的表达能力进行理论分析,并基于这些理论分析开发出了性能强大的模型。然而,在实际应用中,这些在理论上非常强大的模型的性能往往会受到计算复杂度等因素的限制。   本文作者 Michael Bronstei n 是一名来 自帝国理工学院的教授,同时也是 Twitter 图机器学习项目组的负责人。在本文中,他深入浅出地介绍了近年来分析图神经网络表达能力的工作,并介绍了他们对于该领域未来发展方向的思考。    1    图神经网络和 WL 图同构测试之间的关系      众所周知,传统的前馈神经网络(多层感知机)是一种通用函数近似器:它们能够以任意的准确率逼近任意的平滑函数。对于近期兴起的图神经网络来说,其表征性质还不太为人所知。在实验中,我们经常可以看到图神经网络在某些数据集上性能优异,但同时又在另一些数据集上表现令人失望。   为了探究造成这种现象的根本原因,我们不得不思考一个问题:图神经网络究竟有多强大?   在探究这一问题的过程中,我们所面临的一个挑战是:实际应用场景下使用的图往往是连续结构和离散结构(节点、边特征、连通性)的组合。因此,该问题可以被表述为不同的形式。一种可能的形式化定义是:图神经网络是否能够区分不同类型的图结构。在图论中

2.基于梯度的攻击——FGSM

半世苍凉 提交于 2020-08-16 06:19:03
  FGSM原论文地址: https://arxiv.org/abs/1412.6572    1.FGSM的原理      FGSM的全称是Fast Gradient Sign Method(快速梯度下降法),在白盒环境下,通过求出模型对输入的导数,然后用符号函数得到其具体的梯度方向,接着乘以一个步长,得到的“扰动”加在原来的输入 上就得到了在FGSM攻击下的样本。     FGSM的攻击表达如下:       那么为什么这样做有攻击效果呢? 就结果而言,攻击成功就是模型分类错误,就模型而言,就是加了扰动的样本使得模型的loss增大。而 所有基于梯度的攻击方法都是基于让loss增大这一点来做的。 可以仔细回忆一下,在神经网络的反向传播当中,我们在训练过程时就是沿着梯度方向来更新更新w,b的值。这样做可以使得网络往loss减小的方向收敛。 那么现在我们既然是要使得loss增大,而模型的网络系数又固定不变,唯一可以改变的就是输入,因此我们就利用loss对输入求导从而“更新”这个输入。(当然,肯定有人问,神经网络在训练的时候是多次更新参数,这个为什么仅仅更新一次呢?主要因为我们希望产生对抗样本的速度更快,毕竟名字里就有“fast”,当然了,多次迭代的攻击也有,后来的PGD(又叫I-FGSM)以及MIM都是更新很多次,虽然攻击的效果很好,但是速度就慢很多了)     

一张照片,数出880个脸! 你的手机里面人脸框框怎么来的?

爷,独闯天下 提交于 2020-08-16 06:01:30
下面这张据说是最多人自拍的照片里面有1000个人。 百度的人脸检测技术成功找到其中880个人。这个的确考验眼神,让人来数的话,估计拿着放大镜也数不清。 这还是2018年底的成绩,估计现在又厉害了一截。这就今天我们讨论的问题。 人脸检测现在应用已经非常普遍,但是背后的技术原理还是很有意思的。比如大家用手机照相时候,应该注意到了相机能够自动检测到人脸。 首先要稍微区分一下人脸检测和人脸识别两个概念,非常相关又略有不同: 人脸检测: 当前照片里,哪些部位是人脸? 人脸识别: 当前照片里面的人是谁?手机照片自动归类就用到了这个技术。 1. 从人工智能大的方面来说,这两个问题很好统一。其实就是给定输入变量X (照片),模型自动给出结果Y。这个Y可能不同,比如1)是不是人脸?2)谁的人脸?3)这个人年纪多大?)。 简答来说,人工智能模型是解决一个方程: X * W = Y 其中W就是模型要学习的一系列参数。参数学好了,就能成功的把输入变量映射到我们想要的输出变量。 1)对于人脸检测问题来说,X是照片的各个像素值,包括3个通道的颜色。图像在计算机中的存储方式是数字矩阵对应像素点阵,比如1024×768等。而每个像素点是用数值来表示RGB或者黑白灰。而Y就是人脸框框的四个坐标值。 2)对于人脸识别问题,就是判断这个人和谁是同一个人时候,X输入同上,而Y是一长串特征值向量

换脸新潮流:BIGO风靡全球的人脸风格迁移技术

三世轮回 提交于 2020-08-16 01:48:50
云栖号资讯:【 点击查看更多行业资讯 】 在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来! 引 1974年,我国的考古学家在陕西省西安市发掘出了兵马俑,并被其神态各异惟妙惟肖的面部表情所震撼。同年,一篇名为《A Parametric Model for Human Faces》论文迈出了人脸属性编辑这一领域的第一步。而半个世纪后的今天,BIGO自主研发的FaceMagic的换脸技术让你随心所欲地化身为兵马俑,世界名画,或者电影里的超级英雄, 产品一推出即风靡全球。 BIGO为了把这项创新技术带给全球用户,研发人员克服了各种挑战。技术挑战主要来源于三个方面:第一是人脸特征迁移技术,我们创新性地尝试把风格迁移的思路用于人脸特征迁移中,克服了当时主流的deep fake、 3D方案等技术的不足。 第二是全球化问题,因为BIGO用户来源于全球各地,为了解决不同人种的肤色、五官结构的差异问题,我们构建了千万量级的全球化的人脸数据集,极大地涵盖肤色、性别、年龄等差异性,力求把全球每一位用户的效果做到最佳 。第三是多属性,多场景的效果优化,我们在不断优化网络结构的同时尝试人脸属性、人脸姿态等约束,并大力提升大规模数据的训练效率,充分挖掘数据的多样性特征,把换脸效果做到更加鲁棒、真实、自然。FaceMagic仍在吸引越来越多人的参与,自上线以来,全球生产总量接近1亿。功能推出后

CCAI 2020 | 耿新—经典论文工作推荐

£可爱£侵袭症+ 提交于 2020-08-16 01:37:57
   CCAI 2020年8月29日-30日   2020年中国人工智能大会(Chinese Congress on Artificial Intelligence 2020,简称“CCAI 2020”)将于8月29日-30日在南京召开。CCAI 2020以“智周万物”为主题,探讨人工智能作为引领未来的战略性技术,如何以周知万物的学术境界赋能未来,带动时代发展,实现互联世界的远大理想。    东南大学计算机学院、软件学院院长、人工智能学院执行院长,国家优青,IETI Distinguished Fellow耿新将出席本次大会并担任《青年科学家专题论坛》论坛主席。    耿新 :分别于2001年和2004年在南京大学计算机科学与技术系获得学士和硕士学位,于2008年获得澳大利亚Deakin大学博士学位。创建东南大学模式学习与挖掘(PALM)实验室并担任实验室主任至今。目前主要从事机器学习、模式识别、计算机视觉等方面的研究。曾获国家级教学成果奖一等奖、教育部自然科学奖一等奖等多项教学、科研奖励,入选国际工程与技术学会(IETI)杰出会士。曾获国家优秀青年科学基金、江苏省杰出青年科学基金资助,主持国家重点研发计划课题、国家自然科学基金等多个科研项目。       01       Partial Multi-Label Learning with Label Distribution  

AI修复百年前京城老视频爆火网络,专访作者:7天完成,颜色有不足

喜欢而已 提交于 2020-08-16 01:26:00
   大数据文摘出品       作者:刘俊寰、牛婉杨   昨天,一个“修复老北京街道”的视频刷屏全网。一段由加拿大摄影师在 100年前的北京 被AI修复后,活灵活现地展现在人们面前,一百年前人们打招呼的方式、使用的乐器、交通工具,在这段视频中,都清晰可见。配上颇合时宜的音乐, 24小时内,已经有了将近50万的点赞量,10万多次的转发,接近3万的留言 ,看来周六大家也有在好好工作啊。      这个视频来自一位名叫“大谷Spitzer”的博主,据他所说, 接触老片修复是一个偶然,整个项目也只花了7天时间就顺利完成了 。   先来一起看看这惊人的修复效果。   老视频      修复后效果      修复后的视频把当时的北京城演绎的活灵活现,下边的片段中,左下角小哥呆呆的看着镜头,连细微的表情都清晰可见,青涩中带有一点可爱,想象一下这位憨厚的小哥来自一百年前,还是让文摘菌感慨万千。      怪不得网友们纷纷赞叹。有网友表示,不仅 整体氛围没话说 ,连 细节部分也分毫毕显 ,“每个人脸上都是新奇又不敢接近的表情”。   甚至有网友留言表示, “博物馆应该收藏你的作品” !      链接指路:   https://weibo.com/tv/v/J0ZsQnP6a?fid=1034:4502352820895785   博主在视频最开始就说道,想用技术为社会做一些有意义的事情

残差网络ResNet笔记

夙愿已清 提交于 2020-08-16 00:22:09
发现博客园也可以支持Markdown,就把我之前写的博客搬过来了~ 欢迎转载,请注明出处: http://www.cnblogs.com/alanma/p/6877166.html 下面是正文: Deep Residual Learning for Image Recognition 1. 思想 作者根据输入将层表示为学习 残差函数 。实验表明,残差网络更容易优化,并且能够通过增加相当的深度来提高准确率。 核心是解决了增加深度带来的副作用(退化问题),这样能够通过单纯地增加网络深度,来提高网络性能。 作者在ImageNet上实验了一个152层的残差网络,比VGG深8倍,取得了3.57%的错误率。 作者通过一系列实验证明了表示的深度(即网络的深度)对很多视觉识别任务都至关重要。仅仅由于使用了非常深的网络,作者就在COCO目标检测数据集上获得了 28% 的相对提升。 2. 笔记 网络的深度为什么重要? 因为CNN能够提取low/mid/high-level的特征,网络的层数越多,意味着能够提取到不同level的特征越丰富。并且,越深的网络提取的特征越抽象,越具有语义信息。 为什么不能简单地增加网络层数? 对于原来的网络,如果简单地增加深度,会导致梯度弥散或梯度爆炸。 对于该问题的解决方法是 正则化初始化 和 中间的正则化层(Batch Normalization)