神经网络模型

基于卷积神经网络的查询意图检测【论文笔记】

a 夏天 提交于 2020-01-13 21:56:33
原文:Query Intent Detection using Convolutional Neural Networks 主要贡献: 使用卷积神经网络来提取查询向量表示作为查询分类的特征 使用该特征来对查询意图分类 能有效地检测出查询意图,具有较高的查准率和查全率 导言 现代搜索引擎为了满足用户的搜索需求,需深入了解用户的查询,识别查询背后的意图。例如,查询“美国总统”将返回巴拉克奥巴马作为答案,查询“匹兹堡图片”将首先显示图像搜索引擎的结果。 查询意图识别的挑战性:查询通常很短;识别用户意图需更多的上下文而不只是关键字;意图分类的数量非常大。大多数方法都需要大量的人力来为每个意图类定义模式。 本方法是使用深度学习来对查询向量表示,然后将其用作特征来按意图对查询进行分类。 相关工作 两种主流方法来识别查询意图: 基于规则的方法:使用预定义的规则将新查询与其意图匹配,如果能匹配上则一定是精确的,但可能缺少相应规则而覆盖率低,规则需要大量人力来设计 基于统计的方法:监督或非监督学习,在监督方法中需要基于领域知识或特征工程 本文自动生成生成查询向量作为特征,而不需人工设计分类特征。 查询意图识别 本方法 本模型包括两个步骤: 离线时训练模型参数,利用标记了意图的查询样本学习卷积神经网络的参数和分类器 在线时在新查询上运行模型,得到其意图分类结果 在离线训练阶段:

机器学习原理视频

蹲街弑〆低调 提交于 2020-01-13 03:45:27
想自学机器学习和深度学习?不妨边看专家讲解视频边自学。不仅能感受世界各地专家的熏陶,也能快速获取知识,一举两得。这篇文章整理了一个 YouTube 视频列表,供希望在该领域学习的朋友使用。   视频观看建议   我将视频分为三类:机器学习、神经网络、深度学习。为方便起见,你可以使用我创建的列表按顺序学习。特别推荐初学者根据顺序学习,以更好地理解视频。   这套参考视频集需要时间消化,若觉得视频太多请根据需要调节每次的学习时长。视频长度从几分钟到几小时不等。我已写出每个视频的摘要,供读者查阅。   一、机器学习相关视频   1. 机器人和人工智能的未来(斯坦福大学,吴恩达)   原标题:The Future of Robotics and Artificial Intelligence   链接:https://www.youtube.com/watch?v=AY4ajbu_G3k&feature=youtu.be   时长:16 分钟 26 秒   总结:开启机器学习之旅最好的方法就是,莫过于听全世界最好的老师和专家讲课。斯坦福大学 的吴恩达在此讲述了自己幼时的梦想,创造一个可以像人类一样思考和工作的机器人,并改善千万人的生活。另外,他还探讨了人类大脑和使机器行为更类人的软件之间的相似性。   2. 吴恩达机器学习讲座系列   原标题:Lecture Collection |

Batch Normalization

家住魔仙堡 提交于 2020-01-12 19:24:42
前言: Batch Normalization是深度学习领域在2015年非常热门的一个算法,许多网络应用该方法进行训练,并且取得了非常好的效果。 众所周知,深度学习是应用随机梯度下降法对网络进行训练,尽管随机梯度下降训练神经网络非常有效,但是它有一个缺点,就是需要人为的设定很多参数,比如学习率,权重衰减系数,Dropout比例等。这些参数的选择对训练结果至关重要,以至于训练的大多数精力都耗费在了调参上面。BN算法就可以完美的解决这些问题。当我们使用了BN算法,我们可以去选择比较大的初始学习率,这样就会加快学习的速度;我们还可以不必去理会过拟合中的dropout、正则项约束问题等,因为BN算法可以提高网络的泛化能力;我们再也不需要使用局部响应归一化层,因为BN本身就是归一化的网络;还可以打乱训练数据,防止每批训练的时候,某一个样本经常被选到。通常在训练神经网络之前,我们都会对数据进行归一化处理,为什么呢?因为神经网络训练实际是为了学习数据的分布情况,一旦训练数据与测试数据分布不同,那么网络的泛化能力也会大大降低。另外,如果每一批的训练数据都不同,那么神经网络就会去适应不同训练数据的分布,这样就会大大降低网络训练的速度。深度学习的训练是一个复杂的过程,如果前几层的数据分布发生了变化,那么后面就会积累下去,不断放大,这样就会导致神经网络在训练过程中不断适应新的数据分布,影响网络训练的速度

人工智能实验四:深度学习算法及应用(DNN&CNN)

走远了吗. 提交于 2020-01-12 08:43:37
人工智能实验四报告:深度学习算法及应用 文章目录 人工智能实验四报告:深度学习算法及应用 实验目的 实验要求 实验硬件 实验软件 实验内容与步骤 MNIST数据集 具体实现 DNN(深度神经网络) 概述 具体设计 代码实现 结果输出 结果分析 为啥我又用了CNN(卷积神经网络)? CNN(卷积神经网络) 概述 具体设计 代码实现 结果输出 结果分析 思考题 实验目的 了解深度学习的基本原理 能够使用深度学习开源工具识别图像中的数字 了解图像识别的基本原理 实验要求 解释深度学习原理 对实验性能进行分析 回答思考题 实验硬件 计算机 实验软件 软件:windows操作系统 应用软件:TensorFlow、PyCharm、Python、Google Colab 实验内容与步骤 安装开源深度学习工具设计并实现一个深度学习模型,它能够学习识别图像中的数字序列。使用数据训练它,可以使用人工合成的数据(推荐),或直接使用现实数据。 MNIST数据集 通过下面的代码我们可以对其中的图片有一个大致的把握: import matplotlib . pyplot as plt # 训练集 train_images = mnist . train . images train_labels = mnist . train . labels # 验证集 validation_images = mnist

循环神经网络和LSTM

我们两清 提交于 2020-01-10 08:39:29
MENU 循环神经网络 定义 应用领域 模型结构 问题 LSTM 基本概念 核心思想 循环神经网络 定义 循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network) 应用领域 RNN的应用领域有很多, 可以说只要考虑时间先后顺序的问题都可以使用RNN来解决.这里主要说一下几个常见的应用领域: 自然语言处理(NLP): 主要有视频处理, 文本生成, 语言模型, 图像处理 机器翻译, 机器写小说 语音识别 图像描述生成 文本相似度计算 音乐推荐、网易考拉商品推荐、Youtube视频推荐等新的应用领域. 模型结构 问题 RNN存在梯度消失和梯度爆炸问题(BP算法和长时间依赖造成的): RNN的算法, 它处理时间序列的问题的效果很好, 但是仍然存在着一些问题, 其中较为严重的是容易出现梯度消失或者梯度爆炸的问题(BP算法和长时间依赖造成的). 注意: 这里的梯度消失和BP的不一样,这里主要指由于时间过长而造成记忆值较小的现象. 因此, 就出现了一系列的改进的算法, 这里介绍主要的两种算法: LSTM 和 GRU. LSTM 和 GRU对于梯度消失或者梯度爆炸的问题处理方法主要是:

神经网络初识

≯℡__Kan透↙ 提交于 2020-01-09 00:54:23
主要应用领域: 自然语言处理, 图像识别 回顾 ML 回想一波, 其实机器学习的本质, 是 构造一个函数 . 具体一点是, 通过算法使得机器能够从大量历史数据中学习规律, 从而对新的样本做预测 \(train: 输入: \{X^i, y^i\}_{i=1}^N \rightarrow \ 训练出算法模型 \ f(X, \theta*)\) \(use: 输入: X_{new} \rightarrow \ 模型\ f(X, \theta*) \rightarrow y 或 p(y|x)\) 语音识别: \(f(一段声波) = \ "小陈同学好帅哦, 嗯嗯嗯..,"\) 图像识别: \(f(一张图片) = \ "哇, 从图片 能看出小陈同学高颜值且气质非凡"\) 下围棋: \(棋盘, 棋子 = "6-6" (落子的位置)\) 对话系统: \(f("小陈同学能成为数据领域内的大咖嘛?") = "当然, 毕竟也积累多年了, 耐心, 恒心, 总会获得回报的.\) 传统 Machine Learning VS Deep Learning 的输入差异 传统 ML 的输入, 就是以多特征值这样的"表格"形式输入, 每行是一个样本. 属于 结构化数据 图像,声音的输入, 必须将其作为一个整体 , 这其实才是 符合自然界 的真实样本 Why 深度学习 在几乎所有的 计算机视觉 任务比赛中表现最好

神经网络那些事之发展史

纵然是瞬间 提交于 2020-01-08 20:17:32
https://github.com/123liudong/deeplearing_nocode_handbook.git 神经网络从诞生之日起到现在的人尽皆知并不是大家想象的那么一帆风顺,接下来我将会从下面几个方面来谈谈神经网络大概的发展史: 神经网络的提出是为了解决什么问题? 为什么神经网络会复兴? 为什么神经网络会跌下谷底? 概览起落 四个字概括神经网络的坎坷成长便是"三起两落",网上有张段子图很形象的表示出神经网络的发展趋势,以及部分同志对AI的持有态度. 第一次复兴:诞生 笔者认为 神经网络的前身就是感知机 ,感知机的诞生才算是神经网络的1.0版本. 一些资料上认为1943年的A Logical Calculus if Ideas Immanent in Nervous Activity提出了神经元计算模型,这才是神经网络最开始的起点 .我认为这个观点没有错,笔者也没有错,如果把神经网络再细化一点,其本质也不过是加减乘除这些最基本的操作.所以这个问题就不用再进行陈述. 1958年提出感知机《The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain》的大牛叫做Rosenblatt,感知机的过人之处在于仿生物学,可以完成一些简单的视觉处理任务

深度学习入门系列-神经网络

≯℡__Kan透↙ 提交于 2020-01-08 03:28:55
机器学习      定义 : 机器学习 (Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计 学 、逼近论、凸分析、算法复杂度理论等多门学科。 专门研究计算机怎样模拟或实现人类的 学习 行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。   分类 :根据训练集是否标注,9可以把机器学习分为监督学习(从标注好的训练集中训练出一个预测函数完成对未知数据的预测),无监督学习(训练集没有人为标注),半监督学习(介于监督学习和无监督学习之间),增强学习(机器为了达成目标,随着环境的变动,而逐步调整其行为,并评估每一个行动之后所到的回馈是正向的或负向的)。   应用 :机器学习已广泛应用于数据挖掘 、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音和手写识别、战略游戏和机器人 等领域。 深度学习   定义 : 深度学习 (deep learning)是机器 学习 的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。简单来说,深度学习(Deep Learning)就是更复杂的神经网络(Neural Network)。    目前为止,由神经网络模型创造的价值基本上都是基于监督式学习(Supervised Learning)的。在实际应用中

AlexNet卷积神经网络

徘徊边缘 提交于 2020-01-08 02:06:24
译者按: 祖师爷Hinton 带领的小组经典之作,深度学习开山祖师 Hinton率领的谷歌团队多次夺冠 ,主力成员为 hinton 在多伦多大学的学生 Alex Krizhevsky , Ilya Sutskever , 因此他们的解决方案也叫alexnet , 这篇文章是hinton大神团队的代表性之作,CNN (卷积神经网络)已经成为图像识别处理的标准,alexnet作为CNN的代表性方案基础,开创性的GPU计算卷积 , 仿生视觉细胞的局部感受野等手段解决了图像处理的难题, 和同期的VGG、ResNet、GoogleNet等比肩,使得图像识别成为了人工智能的最成功领域。 ImageNet是一个计算机视觉系统识别项目,缔造者为斯坦福大学教授李飞飞 ,是目前图像识别最大的数据库。是美国斯坦福的计算机科学家,模拟人类的识别系统建立的。能够从图片识别物体。ImageNetLSVRC图像识别大赛素有国际“计算机视觉奥林匹克“之称。数据集包含大约1000多万张各种图片,被分为1000个分类,参赛者训练分类器,在测试数据上取得最高辨识正确率者为优胜。 原文地址: http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks 作者 : University of

递归神经网络(RNN)简介

谁说我不能喝 提交于 2020-01-06 18:03:19
在此之前,我们已经学习了前馈网络的两种结构——多层感知器和卷积神经网络,这两种结构有一个特点,就是假设输入是一个独立的没有上下文联系的单位,比如输入是一张图片,网络识别是狗还是猫。但是对于一些有明显的上下文特征的序列化输入,比如预测视频中下一帧的播放内容,那么很明显这样的输出必须依赖以前的输入, 也就是说网络必须拥有一定的”记忆能力”。为了赋予网络这样的记忆力,一种特殊结构的神经网络——递归神经网络(Recurrent Neural Network)便应运而生了。网上对于RNN的介绍多不胜数,这篇《Recurrent Neural Networks Tutorial》对于RNN的介绍非常直观,里面手把手地带领读者利用python实现一个RNN语言模型,强烈推荐。为了不重复作者 Denny Britz的劳动,本篇将简要介绍RNN,并强调RNN训练的过程与多层感知器的训练差异不大(至少比CNN简单),希望能给读者一定的信心——只要你理解了多层感知器,理解RNN便不是事儿:-)。 RNN的基本结构 首先有请读者看看我们的递归神经网络的容貌: 乍一看,好复杂的大家伙,没事,老样子,看我如何慢慢将其拆解,正所谓见招拆招,我们来各个击破。 上图左侧是递归神经网络的原始结构,如果先抛弃中间那个令人生畏的闭环,那其实就是简单”输入层=>隐藏层=>输出层”的三层结构