神经网络

[Kaggle] Digit Recognizer 手写数字识别(卷积神经网络)

拟墨画扇 提交于 2020-10-28 03:00:00
文章目录 1. 使用 LeNet 预测 1.1 导入包 1.2 建立 LeNet 模型 1.3 读入数据 1.4 定义模型 1.5 训练 1.6 绘制训练曲线 1.7 预测提交 2. 使用 VGG16 迁移学习 2.1 导入包 2.2 定义模型 2.3 数据处理 2.4 配置模型、训练 2.5 预测提交 Digit Recognizer 练习地址 相关博文: [Hands On ML] 3. 分类(MNIST手写数字预测) [Kaggle] Digit Recognizer 手写数字识别 [Kaggle] Digit Recognizer 手写数字识别(简单神经网络) 04.卷积神经网络 W1.卷积神经网络 上一篇的简单神经网络,将 28*28 的图片展平了,每个像素在空间上的位置关系是没有考虑的,空间的信息丢失。 1. 使用 LeNet 预测 LeNet神经网络 参考博文 1.1 导入包 from keras import backend as K # 兼容不同后端的代码 from keras . models import Sequential from keras . layers . convolutional import Conv2D from keras . layers . convolutional import MaxPooling2D from keras .

###haohaohao######专访 DLP-KDD 最佳论文作者,探讨图神经网络的特点、发展与应用

青春壹個敷衍的年華 提交于 2020-10-27 16:19:37
InfoQ 的读者大家好,我是 KDD Workshop DLP-KDD 2020 的联合主席王喆,在 DLP-KDD 2020 征稿之际,我们专访了上一届 Workshop Best Paper Award(An End-to-End Neighborhood-based Interaction Model for Knowledge-enhanced Recommendation)的获得者:曲彦儒,白婷,与这两位图神经网络领域的专家深入探讨当前的学术及工程热点“图神经网络”的发展和应用,希望对大家有所帮助和启发。 Q : 能否简要介绍一下图神经网络与传统的神经网络(比如经典的 Embedding+MLP 结构,以及 RNN 等序列模型)之间的联系和区别? A : 这些模型的共同点在于, 都是通过神经网络端到端地拟合输入数据和输出数据之间的函数关系。他们之间最主要的区别在于, 不同的模型结构能够适应不同的先验知识. 比如全连通神经网络,没有假设任何先验知识, RNN 能够适应线性和序列性先验, 图神经网络能够适应更加复杂的结构性先验, 比如定义多个概念之间的关系, 描述复杂的非线性结构等。 此外,相比于其他神经网络模型,图神经网络能够从结构和功能两个方面建模数据整体特性,结构是指已有数据本身的相互关联,是已观测到的;功能是指信息在图中传播、相互影响的过程,与已有结构有关

入门声纹技术(二):声纹分割聚类与其他应用

拥有回忆 提交于 2020-10-27 12:19:00
声纹识别技术是声纹技术中最为核心的一项,和指纹识别、人脸识别一样,声纹识别也是生物特征识别技术的一种,该技术利用算法和神经网络模型,让机器能够从音频信号中识别出不同人说话的声音。 在10月19日的分享中,谷歌声纹识别与语言识别团队负责人王泉老师着重介绍了声纹识别技术以及相关的音频基础知识,并详细阐述深度学习时代最前沿的声纹识别模型,包括各种推理逻辑和损失函数的设计思路,以及数据处理方面的相关话题。第一讲回顾: 【机器之心】入门声纹技术第一讲_哔哩哔哩 (゜-゜)つロ 干杯~-bilibili 但是许多人误以为声纹技术等价于声纹识别,却不知道声纹技术还有着许多十分重要且有趣的其他应用。所以在 「从算法到应用,入门声纹技术」系列分享的第二讲中 ,王泉老师将着重介绍声纹技术除声纹识别之外的其他应用,声纹分割聚类便是其中最具代表性的应用,也就是关于「谁在什么时间说了什么」这个问题的答案。 10月26日,第二期分享 声纹分割聚类与其他应用 https:// u.wechat.com/MJznHqiyMH RcPKzhMIwL1K0 (二维码自动识别) 分享主题: 声纹分割聚类与其他应用 分享嘉宾: 王泉,美国谷歌公司资深软件工程师、声纹识别与语言识别团队负责人,《声纹技术:从核心算法到工程实践》一书作者。在谷歌任职期间,作者带领其团队将先进的声纹技术部署到了大量产品中

除了方文山,用TA你也能帮周杰伦写歌词了

萝らか妹 提交于 2020-10-27 11:47:57
周杰伦几乎陪伴了每个90后的青春,那如果AI写杰伦风格的歌词会写成怎样呢? 首先当然我们需要准备杰伦的歌词,这里一共收录了他的十几张专辑,近5000多行歌词。 原文档格式: 第一步数据预处理 def preprocess(data): """ 对文本中的字符进行替换,空格转换成逗号;换行变为句号。 """ data = data.replace(' ', ',') data = data.replace('\n', '。') words = jieba.lcut(data, cut_all=False) # 全模式切词 return words 处理后结果: 前10个词: ['想要', '有', '直升机', '。', '想要', '和', '你', '飞到', '宇宙', '去'] 将处理完的数据写入内存并将文本转换完数字 # 构造词典及映射 vocab = set(text) vocab_to_int = {w: idx for idx, w in enumerate(vocab)} int_to_vocab = {idx: w for idx, w in enumerate(vocab)} # 转换文本为整数 int_text = [vocab_to_int[w] for w in text] 构建神经网络 a. 构建输入层 def get_inputs(): inputs

AI芯片公司,架构、编译两手都要硬!搭载清华最新深度学习编译研究成果的芯片已商用

点点圈 提交于 2020-10-27 09:16:53
  2016 年,第一颗基于可重构计算的人工智能芯片诞生于清华。该成果曾发表在《IEEE 固态电路期刊》,《麻省理工科技评论》也报道过该芯片。   这是清华可重构计算实验室 “十年磨一剑” 的成果。2006 年起,清华开始研究可重构计算并成立实验室。   2018 年,该实验室开始走向产品化,并成立清微智能公司。两年来,公司已在语音识别、视觉识别等领域研发出规模化应用产品,并和阿里巴巴等互联网巨头建立合作。如今,清微智能将最新技术运用于 AI 编译工具链中,并服务于其量产芯片 TX5 系列中,通过编译优化, 全球首款多模态智能计算芯片 TX510 用于人脸识别时,其处理速度能够提升一倍。   DeepTech 近日联系到清微智能首席科学家、清华大学微电子与纳电子学系教授尹首一,就该公司的主要产品、和他本人近日以通讯作者发表的新论文进行了深度交流。      图 | 尹首一在 2018 年阿里巴巴云栖大会上   自 2018 年以来,清微智能针对终端产品的语音和视觉两大应用场景,量产出货两款芯片产品: 超低功耗的智能语音 SoC 芯片 TX210 ,已应用至多款 TWS 耳机、电子产品及多种智能家居产品中; TX510 芯片 于 2020 年 7 月实现量产,在金融支付、智能安防、工业机器人、航空等领域也已分批交付客户,出货量已超十万片,并承担多个国家重大项目的建设。      图

周志华:“数据、算法、算力”,人工智能三要素在未来还要加上“知识”

爷,独闯天下 提交于 2020-10-27 08:33:13
来源:AI科技评论 本文约 8300字 ,建议阅读 15分钟。 本文介绍了清 周志华 教授在 全球人工智能和机器人峰会的演讲内容。 2020 年 8 月 7 日,全球人工智能和机器人峰会(CCF-GAIR 2020)正式开幕。CCF-GAIR 2020 峰会由中国计算机学会(CCF)主办,香港中文大学(深圳)、雷锋网联合承办,鹏城实验室、深圳市人工智能与机器人研究院协办。从 2016 年的学产结合,2017 年的产业落地,2018 年的垂直细分,2019 年的人工智能 40 周年,峰会一直致力于打造国内人工智能和机器人领域规模最大、规格最高、跨界最广的学术、工业和投资平台。 在第一天的人工智能前沿专场上,南京大学计算机系主任、人工智能学院院长、CCF会士、ACM、AAAI、IEEE、IAPR Fellow 周志华 教授以“ 反绎学习 ”为题发表了大会报告。 周志华表示,当今的人工智能热潮是由于机器学习,特别是其中的深度学习技术取得巨大进展,在大数据、大算力的支持下发挥出巨大的威力。机器学习算法模型用了更多数据和算力后,获得的性能增长可能远超算法模型设计者的预想。但是,把模型“做大”要付出高昂的成本代价。 因此,他认为, 在人工智能研究上,学术界和工业界适宜有不同的分工:把“对性能的追求”交给工业界,学术界回到本源,做“探路”和“思考未来”的事情。 如何将“机器学习“与“逻辑推理

机器学习基础随笔(6)Deep Learning

邮差的信 提交于 2020-10-27 03:26:27
Deep Learning 参考资料:台湾大学李宏毅机器学习课程和PPT Deep learning跟machine learning一样,也是“大象放进冰箱”的三个步骤: 在Deep learning的step1里define的那个function,就是neural network神经网络 我个人的理解: 深度学习就是多层神经网络,有着多层隐藏层,所以显得有“深度” Neural Network concept 把多个Logistic Regression前后连接在一起,然后把一个Logistic Regression称之为neuron(神经元),整个称之为neural network 我们可以用不同的方法连接这些neuron,就可以得到不同的structure,neural network里的每一个Logistic Regression都有自己的weight和bias,这些weight和bias集合起来,就是这个network的parameter,我们用 θ \theta θ 来描述 Fully Connect Feedforward Network 那该怎么把它们连接起来呢?这是需要你手动去设计的,最常见的连接方式叫做 Fully Connect Feedforward Network(全连接前馈网络) 如果一个neural network的参数weight和bias已知的话

智能计算系统---实验一BANGC算子实现与TensorFlow集成

孤街醉人 提交于 2020-10-26 23:58:03
智能计算系统---实验一BANGC算子实现与TensorFlow集成 实验简介与说明 实验内容 算子实现 算子测试 cnplugin集成 cnmlCreatePluginPowerDifferenceOpParam cnmlCreatePluginPowerDifferenceOp cnmlComputePluginPowerDifferenceOpForward TensorFlow算子集成 框架算子测试 实验简介与说明 该实验是寒武纪陈云霁老师所著的《智能计算系统》自带的实验部分 该实验通过使用智能编程语言(BANGC)进行算子开发,对高性能库(CNML)算子进行扩展,并最终集成到编程框架(TensorFlow)中,掌握对高性能库及编程框架进行扩展的能力,使读者可以在 DLP 硬件上自由设计并优化满足特定应用场景的新算子,满足日新月异智能算法的实际需求。 而本文章并不是对该实验的直接解答,而是介绍在实验部分一些无所谓关键的坑。在本人的理解,这个实验的主要目的就是让大家熟悉使用BANGC语言进行MLU的算子开发,让大家认识到智能硬件对于目前一些特定任务,比如各种神经网络,卓越的加速作用。但是限于篇幅或是精力,该书提供的实验文档和 寒武纪官网文档 对于部分接口的使用没有明确和说明,造成本人在进行实验的部分时踩了不少问题点。故此写下这篇博客向各位读者介绍文档中没有介绍或说明

尤佳轩、何恺明等提出新型图表示法,新视角理解图结构如何影响预测性能

北战南征 提交于 2020-10-26 23:51:39
神经网络的图结构和预测性能之间有怎样的关系?近日,斯坦福尤佳轩、Jure Leskovec 联合 FAIR 何恺明、Saining Xie 等人的论文提出了一种神经网络的新型的图表示法。该表示法有助于对神经网络的架构和预测性能有更深层的理解。这篇论文已经被 ICML 2020 收录。 选自arXiv,作者:尤佳轩、Jure Leskovec、何恺明、Saining Xie,机器之心编译,参与:小舟、杜伟。 神经网络通常用神经元之间的连接图来表示。尽管神经网络被广泛使用,但目前对神经网络图结构与其预测性能之间关系的理解却非常少。 近日,在斯坦福联合 FAIR 提出的一项研究中,研究者 系统地探讨了神经网络图结构对其预测性能的影响,并提出了一种新的基于图的神经网络表示,他们称之为 relational 图 。其中,神经网络计算层按照图结构与信息交换的轮数(rounds)对应。 论文一作为斯坦福大学计算机科学系博士三年级学生尤佳轩(Jiaxuan You),其导师为斯坦福大学计算机科学副教授、Pinterest 首席科学家 Jure Leskovec。 论文地址: https:// arxiv.org/pdf/2007.0655 9.pdf 总的来说,这项研究有以下几大亮点: relational 图的最佳区域(sweet spot)在于能够大大提升神经网络的预测性能;

英特尔关键时期部门大调整,原首席工程官将离职

空扰寡人 提交于 2020-10-26 23:44:04
   宣布 7nm 制程量产将延迟 6 个月后,英特尔技术部门迎来改组。   当地时间 7 月 27 日,英特尔官网表示,原首席工程官 Venkata Renduchintala 将于 8 月 3 日离开公司。原来由他领导的技术、系统架构和客户部门(TSCG)小组拆分为五个不同的团队。团队的领导人直接向 CEO 罗伯特 · 斯旺(Robert Swan)汇报。   Venkata Renduchintala 于 2016 年 2 月入职英特尔,担任首席工程官,并领导 TSCG 小组。在此之前,他曾为高通集团的副总裁及联合总裁,并负责芯片业务。      图 | Venkata Renduchintala(来源:Intel 官网)   即日起,TSCG 小组拆分为个五个团队。官网表示,这些变更目的是 “促进产品领先地位,改善工艺执行的重点和可靠性”。    其中最重要的技术开发团队,将由英特尔前制造主管安 · 凯莱赫博士(Ann Kelleher)领导。 她原来即负责 10nm 制程升级,也将继续负责 7nm 与 5nm 制程的开发。英特尔实验室研究部门的重要人物迈克 · 梅伯里博士(Mike Mayberry)将在过渡期间提供协助,直到年底他退休。      图 | Ann Kelleher (来源:Intel 官网)    制造和运营团队,将由 Keyvan Esfarjani