深度学习

使用Python+TensorFlow2构建基于卷积神经网络(CNN)的ECG心电信号识别分类(四)

天大地大妈咪最大 提交于 2020-10-22 05:31:45
在上一篇文章中,我们已经对心电信号进行了预处理,将含有噪声的信号变得平滑,以便分类。本篇文章我们将正式开始利用深度学习对心电信号进行分类识别。 卷积神经网络 不论是传统机器学习,还是深度学习,分类的依据都是不同类别的数据中包含的不同特征。要进行分类识别就需要对数据的特征进行提取,但是二者的提取方式并不相同。对于传统的机器学习而言,数据的特征需要设计者或专业人员针对其特性进行手动提取,而深度学习则可以自动提取每类数据中的不同特征。对于卷积神经网络CNN而言,能够自动提取特征的关键在于卷积操作。经过卷积操作提取的特征往往会有冗余,并且多次卷积会使神经网络的参数过多不便于训练,所以CNN往往会在卷积层的后面跟上一个池化层。经过多次的卷积和池化后,较低层次的特征就会逐步构成高层次的特征,最后神经网络根据提取出的高层次特征进行分类。 另外需要指出的是,为什么在心电信号分类中可以使用CNN呢。这是因为CNN具有的卷积操作具有局部连接和权值共享的特征。 局部连接:用于区别不同种类的图片所需的特征只是整张图片中的某些局部区域,因此在进行卷积操作时使用的卷积核(感受野)可以只是几个不同小区域,而不必使用整张图片大小的卷积核(全连接)。这样做不仅可以更好地表达不同的特征,还能起到减少参数的作用。例如下图,左边是使用全连接的神经网络,右边是使用局部连接卷积核的网络。 权值共享:对于一类图片而言

###haohaohao####揭秘认知图谱!从多跳阅读理解问答开始

|▌冷眼眸甩不掉的悲伤 提交于 2020-10-22 01:42:59
【ACL 2019】揭秘认知图谱!从多跳阅读理解问答开始 Phoenix Cat 劝退人工智能新天坑 “机器的阅读理解与问答”一直以来被认为是“自然语言理解(NLU)”的核心问题之一,随着BERT等模型的兴起,单段落的简单阅读理解任务取得了重大突破;研究者将目光转向更能体现机器智能的“多跳”“复杂”情形。本篇论文介绍了基于认知中“双过程理论(dual process theory)”的CogQA模型,文章提出一种新颖的迭代框架:算法模拟认知学中人类的两个认知系统,并维护一张认知图谱(Cognitive Graph),系统一在文本中抽取与问题相关的实体名称并扩展节点和汇总语义向量,系统二利用图神经网络在认知图谱上进行推理计算。文章在HotpotQA全维基百科数据集上持续占据第一近三个月之久,直到文章在被ACL高分接收后公开。 假设你手边有一个维基百科的搜索引擎,可以用来获取实体对应的文本段落,那么如何来回答下面这个复杂的问题呢? “谁是某部在2003年取景于洛杉矶Quality cafe的电影的导演?” 很自然地,我们将会从例如Quality cafe这样的“相关实体”入手,通过维基百科查询相关介绍,并在其中讲到好莱坞电影的时候迅速定位到“Old School”“Gone in 60 Seconds”这两部电影,通过继续查询两部电影相关的介绍,我们找到他们的导演

安装Ubuntu1804+cuda10.1+cudnn7.5.1流程

拟墨画扇 提交于 2020-10-22 01:03:28
ubuntu1804深度学习环境配置 安装Ubuntu1804+cuda10.1+cudnn7.5.1流程 小白一个,此博客仅作为自己后续装机的流程参考,如有问题欢迎大家批评指正! F9 选择从USB启动 在这里主要记录一下分区设置: 下面是一些参考博文,设置分区具体大小根据自己情况而定 https://www.jianshu.com/p/a997355a6200https://blog.csdn.net/wangyuankl123/article/details/95236462 http://www.wuwenhui.cn/4675.html https://www.lastupdate.net/15353.html 分区设置: sda efi 1G 逻辑 /boot 500M 逻辑 swap 50G 逻辑 / 800G 主分区 /usr 剩余~1.15T 逻辑 sdb /home 2T 逻辑 修改镜像源 参考文章 https://www.jianshu.com/p/e08910410796 sudo cp /etc/apt/sources.list /etc/apt/sources.list.cp sudo gedit /etc/apt/sources.list 内容修改为: https://mirror.tuna.tsinghua.edu.cn/help/ubuntu/

Spark Summit North America 202006 高清 PPT 下载

試著忘記壹切 提交于 2020-10-21 20:31:52
为期五天的 Spark Summit North America 2020在美国时间 2020-06-22 ~ 06-26 举行。由于今年新冠肺炎的影响,本次会议第一次以线上的形式进行。这次会议虽然是五天,但是前两天是培训,后面三天才是正式会议。本次会议一共有超过210个议题,一如既往,主题也主要是 Spark + AI,在 AI 方面会议还深入讨论一些流行的软件框架,如 Delta Lake、MLflow、TensorFlow、SciKit-Learn、Keras、PyTorch、DeepLearning4J、BigDL 和 deep learning pipeline等。会议的全部日程请参见: https://databricks.com/sparkaisummit/north-america-2020/agenda 这次会议带来了几点比较重要消息:数砖收购 Redash 公司,发布 Delta Engine等,不过目前 KeyNote 会议的 PPT 还没有发布,感兴趣的可以看下相关视频。过往记忆大数据也在前几天发了几篇这次会议 KeyNote 的介绍,感兴趣的同学可以看这里。另外,在接下来的几天,本公众号也会对一些比较有意思的议题进行介绍,敬请关注本公众号。 如果想及时了解 Spark 、Hadoop或者Hbase相关的文章,欢迎关注微信公共帐号: iteblog

线下公开课报名开启!零门槛玩转AI模型训练

巧了我就是萌 提交于 2020-10-21 17:28:41
在数字化浪潮下,人工智能成为企业实现降本增效的有效途径。 例如,工业生产制造企业中产品的质检工作通常依赖人力完成,作为商品出厂前的最后一道工序,要求质检人员具备高度的专业性与专注度。借助人工智能的力量,将计算机视觉与机械臂相结合,打造瑕疵智能识别+残品自动分拣的解决方案,有效减轻了一线质检人员的压力。 然而,传统意义上的人工智能转型,不仅需要海量数据的积累,对企业算法人员的技术水平、业务理解能力等多个方面也往往有较高的要求。因此,AI 应用的高门槛与高成本,让大批中小型企业与初创企业的 AI 转型之路难上加难。 百度基于飞桨深度学习平台推出的 EasyDL 能够轻松解决上述问题,作为支持企业进行零门槛 AI 开发与高效部署的平台,EasyDL 支持 CV、NLP、ML 三大方向的多种模型,无论是工业质检、园区管理、物流分拣,还是智能硬件、企业服务,都能通过 EasyDL 平台,使用交互式操作,便捷地进行业务模型的定制;考虑到企业部署环境的多样性,EasyDL 同样支持公有云/私有化/设备端多种部署方式,并进行了优化与适配加速,为企业降低部署的难度与成本。 那么,企业说,我还想短时间掌握平台的使用,在业务中快速集成 AI 能力,有没有办法跳过平台使用的摸索阶段?甚至希望资深研发能面对面指导,手把手带领我完成开发的全部流程? 机会来了!百度 AI 快车道·EasyDL 企业零门槛 AI

IROS2020开源软硬件!多激光雷达的协同定位建图及在线外参自标定

一世执手 提交于 2020-10-21 15:44:07
点击 上方“ 3D视觉工坊 ”,选择“星标” 干货第一时间送达 本文由作者林家荣授权转载,二次转载请联系作者 https://zhuanlan.zhihu.com/p/157533731 ----多图预警!请在wifi环境下食用!---- 首先,先放我儿子镇下楼先 自从上次在知乎上分(吹)享(水)了我们的工作后, https://www.zhihu.com/question/332926945/answer/836032023 我们的工作收到了很多的关注,并陆陆续续收到了来着各位朋友的咨询邮件,截止到目前,我们的开源库 https://github.com/hku-mars/loam_livox 已经收到了517个star(感谢各位老铁)。于是乎,我们趁(划)胜(水)追(摸)击(鱼), 苟 (不敢出去,年前怕被废青干,年后怕被疫情干)在实验室里面,积(通)极(宵)开展了新的研(组)究(团)工(开)作(黑)。 而今天,我要介绍的是我们最近被IROS 2020接收的工作” A decentralized framework for simultaneous calibration, localization and mapping with multiple LiDARs”即“一个多激光雷达同时定位建图以及外参的自标定的分布式框架”。我们的工作不仅能实现多(5

自然语言处理动手学Bert文本分类

坚强是说给别人听的谎言 提交于 2020-10-20 16:51:01
自然语言处理动手学Bert文本分类 Bert作为目前自然语言处理领域最流行的技术之一,文本分类作为自然语言处理领域最常见的任务之一,Pytorch作为目前最流程的深度学习框架之一,三者结合在一起将会产生什么样的花火,本套课程基于Pytorch最新1.4版本来实现利用Bert实现中文文本分类任务,延续动手学系列课程风格,全程手敲代码,跟着老师一行一行代码撸起来。 章节1:课程简介 章节2:Seq2Seq相关理论 章节3:Attention机制 章节4:Bert理论系列基础 章节5:基于Bert的文本分类实战 章节6:基于Bert+CNN的文本分类实战 章节7:基于Bert+RNN的文本分类实战 章节8:基于Bert+RCNN的文本分类实战 章节9:基于Bert+DPCNN的文本分类实战 章节10:基于ERNIE的文本分类实战 来源: oschina 链接: https://my.oschina.net/u/4323266/blog/4681101

从核心算法到工程实践,谷歌声纹识别负责人带你学习声纹技术

纵饮孤独 提交于 2020-10-20 09:32:47
说起「指纹」,大家都不会感到陌生。凭着每个人的指纹都不一样的特性,指纹识别技术获得了广泛的利用。 和指纹相比,「声纹」的概念略显陌生。严格来讲,虽然声音并不具备真正意义上的纹理,但每个人的发音器官包括声带、声管等在大小和形状上会有所差异,同时由于性别、年龄和地域的影响,使得我们每个人都有着不一样的声音。 广义上讲,所有可以区分每个人不同声音的特征,都可以称为「声纹」。由于这些特征的存在,声纹和指纹一样,衍生出各种实用的技术。 声纹技术中最为核心的一项便是声纹识别技术。和指纹识别、人脸识别一样,声纹识别也是生物特征识别技术的一种,该技术利用算法和神经网络模型,让机器能够从音频信号中识别出不同人说话的声音。除了声纹识别之外,声纹技术也被广泛用于声纹分割聚类, 以及构建更为强大的语音识别、语音合成以及人声分离系统。 近年来,谷歌在声纹技术上的研究颇多。最近,谷歌声纹识别与语言识别团队负责人王泉老师为国内读者度身打造了一本声纹技术宝典——《声纹技术:从核心算法到工程实践》。 这本书系统性地介绍了声纹识别、声纹分割聚类及声纹在语音识别、语音合成、人声分离等领域中的应用。书中内容全面且紧随时代前沿,不仅涵盖了早至20世纪60年代的经典方法,还以大量篇幅着重介绍了深度学习时代的最新技术。这本书注重理论与实践的结合,除了配备大量实践案例与习题,还有专门章节介绍声纹技术在实际工程部署方面的诸多课题。

如何更为合适地评测推荐算法? Top-N物品推荐算法评测设置回顾

大城市里の小女人 提交于 2020-10-19 08:47:30
  近十年里,top-N商品推荐是隐式反馈中一个被广泛研究的课题,其目的是从大量数据中识别出用户可能偏爱的一小部分物品。   各种top-N物品推荐算法已经被开发出来,特别是基于深度学习的研究取得了很大的进展。   为了证明推荐算法的有效性,需要在基准数据集上建立可靠的评价实验。通常,这样的评估过程包括一系列对于数据集、指标、基线方法和其他方案的设置。   由于每个设置步骤可以选择不同的选项,需要制定和设计适当的标准,以使实验设置标准化。为此,有必要对近期研究中有分歧的实验设置进行系统的回顾。   本文介绍一篇被CIKM 2020收录的论文,在这篇论文中,对于不同的实验设置对评价top-N商品推荐算法的影响,作者设计了一个经验性的大规模实验。      论文标题:   《Revisiting Alternative Experimental Settings for Evaluating Top-N Item Recommendation Algorithms》   论文来源:ACM CIKM 2020   论文链接:http://arxiv.org/abs/2010.04484   1   论文介绍   我们试图找出导致近期评测工作中出现分歧的重要评估设置。   具体来说,考虑三个重要的影响因素,即 数据集分割、采样指标和数据领域选择 。   数据集分割是指利用原始数据构造训练集

蚂蚁算法的应用(01背包、函数极值、TSP)

╄→гoц情女王★ 提交于 2020-10-19 05:01:10
蚂蚁算法的应用(01背包、函数极值、TSP) ​ 笔者是一位大一的萌新,这篇算法是自己查阅文献以及参考别人的博客再加上自身的理解写出来的。有错误的地方希望及时指正。这篇文章我使用的是Matlab,后续会给出python版本。以后会陆续出其他的优化算法以及人工智能算法,机器学习,深度学习等。 这是我在 b站的详细讲解 目录: 原理 应用_TSP 应用_函数极值 应用_01背包 1. 原理 背景介绍 ​ 在了解蚂蚁算法前,首先当然是了解一下算法的背景。 在自然界中,蚂蚁总能找到一条从蚂蚁洞到食物的最短路径,这是人们观察出来的结果。这是为什么呢,因为有一个叫信息素的物质的存在。蚂蚁在运动过程中,能够感知这种物质的存在和这个物质的浓度,同时也会释放这种物质。 原理简介 ​ 在初始阶段,环境中的信息素浓度为0,此时,蚂蚁会随机选择路径到食物。如下图所示: 随后的蚂蚁,根据之前路径上的信息素,选择自己走哪一条路。 划重点! 信息素是一个随时间挥发的物质 。假设每只蚂蚁在单位时间留下的信息素相同,那么,路径越短,残留的信息素也就越多。蚂蚁选择这条路的概率也就越大。这条路上的蚂蚁也就越来越多,产生的信息素也越来越多了。因此形成了 正反馈 。最终得出最优路径。 基本蚂蚁算法的参数和公式 以TSP问题为例子来讲解。 首先是初始化参数: m:蚂蚁数量,约为城市数量的1.5倍。如果蚂蚁数量过大