rnn

TensorFlow人工智能引擎入门教程之九 RNN/LSTM循环神经网络长短期记忆网络使用

余生颓废 提交于 2020-03-26 09:21:32
3 月,跳不动了?>>> 这几天空余时间玩了2天的单机游戏。 黑暗之魂,手柄玩起来挺爽, 这一章节我们讲一下 循环神经网络,RNN 是一种非常通用的神经网络,无论是图像识别 还是 声音识别 文字识别 NLP 时间系列的数据 周期的数据 等等都是通用适合的. 在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNNs之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。理论上,RNNs能够对任何长度的序列数据进行处理。但是在实践中,为了降低复杂性往往假设当前的状态只与前面的几个状态相关.比如 图片 如果28x28像素 如果我们把每一行像素跟上一行的像素 看做时间系列处理的话,也就是 在传统的神经网络WX+B 引入了t 每一个时间系列 t范围内,下一次的w 通过上一个t-1 的wx+b得到 w 所以 图像如果使用RNN处理适合 图像理解 效果很好,NLP 效果也很好。 详细的介绍 可以看这个 http://www

你好,机器作诗了解一下

一个人想着一个人 提交于 2020-03-12 06:38:15
你好,机器作诗了解一下 文章来源:企鹅号 - 语言学午餐Ling-Lunch 还记得当年的Alpha Go吗?人工智能在围棋领域战胜了人类,我们都曾为此唏嘘不已。当时,高晓松说:“等有一天,机器做出了所有的音乐与诗歌,我们的路也会走完”。 这一天真的会到来吗?机器的“诗和远方”又会是怎样的呢? 随着人工智能领域的蓬勃发展,人们也开始探索它在文艺领域的应用。在这方面, 机器作诗 (Automated Poetry Generation)无疑是最受热议的话题之一。 那繁星闪烁的几天苍色 那满心的红日 看万里天使在世界 我就像梦 看那星 闪烁的几颗星 西山上的太阳 青蛙儿正在远远的浅水 她嫁了人间许多的颜色 选自微软小冰诗集《阳光失了玻璃窗》 2017年5月,微软亚洲研究院发布了由智能机器人小冰创作的第一部人工智能诗集《阳光失了玻璃窗》。这个里程碑事件也引起了计算机科学、语言学、文学等领域对人工智能与诗歌本质的大讨论。最近,在央视的《机智过人》节目中,清华大学的机器作诗系统“九歌”也得到了专业人士的赞誉。 利用九歌作诗系统所创作的藏头诗 虽然这些作诗系统让人感到惊喜、有趣,但也有许多人对人工智能创作的所谓“诗歌”抱负面态度。诗人群体大多认为这只不过是一场文字游戏: "一个语言游戏而已。但无论输入多少句子还是写不了真诗。真诗是灵性的。这个设计者水平有限,它设计不了灵性

PaperNote - 基于时空特征融合的入侵检测系统模型

。_饼干妹妹 提交于 2020-03-09 15:25:58
原文标题:Model of the intrusion detection system based on the integration of spatial-temporal features 原文作者:Jianwu Zhang, Yu Ling, Xingbing Fu, Xiongkun Yang, Gang Xiong, Rui Zhang 原文来源:Computers & Security 2020 原文链接:https://www.sciencedirect.com/science/article/pii/S0167404819302214 文章目录 1 简介 2 相关工作 2.1 入侵检测系统 2.2 深度神经网络 3 MSCNN-LSTM设计 3.1 数据选择 3.2 数据处理 3.2.1 数据标准化(standardization) 3.2.2 数据归一化(normalization) 3.3 特征学习过程 3.4 多尺度卷积(multiscale convolution) 3.5 LSTM网络 3.5.1 RNN 3.5.2 LSTM 3.6 池化层 3.7 模型反馈 4 实验 4.1 实验数据 4.2 实验过程 4.3 实验度量 4.4 实验结果 5 总结 1 简介 传统的机器学习方法,如SVM、贝叶斯网络、聚类等,当数据集的规模较小、维度较低时

Dialogue System Survey——Non-task-oriented 翻译

匆匆过客 提交于 2020-03-07 18:40:08
论文地址 参考文献请查看论文。 无任务导向对话系统 与旨在为用户完成特定任务的任务导向对话系统不同,无任务导向对话系统(也称为聊天机器人)集中于在多领域中与人类交谈[64]。总体上,聊天机器人有生成方法generative method或者基于检索的方法retrieval-based method。生成模型可以生成在语料库corpus中从未出现过的、更为合理的回复,而检索方法更注重流畅、信息丰富的回复[30],因为它们可以使用回复选择算法response selection algorithm从语料库中选择合适于当前对话的回复。在之后的部分中,我们首先探索近年来的最热门的话题之一——神经生成模型,讨论了他们的缺点和提升可能性。之后,我们介绍了在检索模型中深度学习取得的成就。 1. 神经生成模型 近年来,诸如推特、reddit等社交媒体网站存在大量的对话式交换,从而发展了数据驱动模型data-driven model。[64]给出了一种生成概率模型,建立在基于短语基础上的统计机器翻译statistical machine translation[118],去模拟微博上的对话。它视生成回复问题为翻译问题,将一条微博翻译成一个回复。但是,生成回复比不同语言之间的翻译更难。很大程度上是由于可行的回复范围过广,以及发布微博和回复之间缺乏短语校准phrase alignment

rnn神经网络

删除回忆录丶 提交于 2020-03-07 03:25:42
1.概述 循环神经网络是一种能对序列数据进行精确建模的有力工具。实际上,循环神经网络的理论计算能力是图灵完备的。自然语言是一种典型的序列数据(词序列),近年来,循环神经网络及其变体在自然语言处理的多个领域,如语言模型、句法解析、语义角色标注(或一般的序列标注)、语义表示、图文生成、对话、机器翻译等任务上均表现优异甚至成为目前效果最好的方法。 图为只有一层的rnn网络,循环神经网络按时间展开后如图2所示:在第 t t时刻,网络读入第 t t个输入 x t xt(向量表示)及前一时刻隐层的状态值 h t − 1 ht−1(向量表示, h 0 h0一般初始化为 0 0向量),计算得出本时刻隐层的状态值 h t ht,重复这一步骤直至读完所有输入。如果将循环神经网络所表示的函数记为 f f,则其公式可表示为: 公式    2.rnn神经网络的单元 (1).LSTM长效记忆门    其中, i t , f t , c t , o t it,ft,ct,ot分别表示输入门,遗忘门,记忆单元及输出门的向量值,带角标的 W W及 b b为模型参数, t a n h tanh为双曲正切函数, ⊙ ⊙表示逐元素(elementwise)的乘法操作。输入门控制着新输入进入记忆单元 c c的强度,遗忘门控制着记忆单元维持上一时刻值的强度,输出门控制着输出记忆单元的强度。三种门的计算方式类似

图文了解RNN与LSTM(详细)

坚强是说给别人听的谎言 提交于 2020-02-27 13:20:47
递归神经网络是最先进的顺序数据算法之一,在苹果Siri和Google语音搜索中都使用到的算法。这是因为它是第一个记忆它的输入的算法,由于内部存储器,这使得它非常适合涉及顺序数据的机器学习问题。它是过去几年Deep Learning的惊人成就背后的算法之一。在这篇文章中,你将学习递归神经网络如何工作的基本概念,最大的问题是什么以及如何解决它们。 介绍 递归神经网络(RNN)是一种功能强大的神经网络类型,属于目前最有前途的算法,因为它们是唯一具有内部存储器的算法。 与许多其他深度学习算法一样,RNN也相对较旧。它们最初是在20世纪80年代创建的,但是由于可用计算能力的增加,现在我们拥有的大量数据以及20世纪90年代的LSTM的发明,这些数据的真正潜力逐渐发挥出来。 由于内部记忆,RNN能够记住他们收到的输入的重要信息,这使得他们能够非常精确地预测接下来会发生什么。 这就是为什么它们是像时间序列、语音、文本、财务数据、音频、视频、天气等时序数据的首选算法,因为它们可以形成对序列及其上下文的深入理解的算法。 递归神经网络在连续数据中产生预测结果,而其他算法则不能。 但是,你何时需要使用循环神经网络? “每当有数据序列时,连接数据的时间动态都比每个帧的空间内容更重要。”- Lex弗里德曼(麻省理工学院) 由于它们正在苹果和谷歌翻译的Siri软件中使用,神经网络正在各地出现。 他们如何工作?

Keras【Deep Learning With Python】更优模型探索Keras实现RNN

不想你离开。 提交于 2020-02-26 10:36:45
文章目录 RNN简介 1.RNN的应用 2.什么是RNN? 3.RNN用来做什么? 4. 训练RNNs Keras代码实现(Mnist) RNN简介 1.RNN的应用 RNN主要有两个应用,一是评测一个句子出现的可能性,二是文本自动生成。\ 2.什么是RNN? RNN之所以叫RNN是因为它循环处理相同的任务,就是预测句子接下来的单词是什么。RNN认为在这循环的任务中,各个步骤之间不是独立,于是它循环记录前面所有文本的信息(也叫记忆),作为预测当前词的一个输入。 在RNN中,每个词作为一层,对其进行预测。 F函数一般是tanh或者ReLU 是在t时刻词典中所有词出现的概率,也就是||=|vocabulary| 并且所有层共享U和W 3.RNN用来做什么? RNNs在NLP中得到了巨大的成功,LSTM是被广泛使用的RNN。LSTM与典型的RNN基本框架一致,只是使用了同的方式来计算隐藏状态。 3.1语言模型和文本生成 语言模型中,输入时经过编码的词向量序列,输出是一系列预测的词。在训练模型的时候,令 ,也就是让输出等于下一时刻真实的输入,因为在文本生成中,这一时刻的输出对应的是下一时刻的输入。 3.2机器翻译 机器翻译与语言模型的不同是,机器翻译必须等待所有输入结束后才输出,因为这个时候才能得到翻译句子的所有信息。 3.3语音识别。 输入一系列的声波信息,然后预测一段语音。 3

深度学习、机器学习与NLP的前世今生

十年热恋 提交于 2020-02-26 02:43:00
随着深度学习的发展,自然语言处理领域的难题也得到了不断突破,AlphaGo项目的主要负责人David Silver曾说“深度学习 (DL)+ 强化学习 (RL) = 人工智能 (AI)”。目前深度学习在自然语言处理上主要有哪些应用?在工程实践中是否会有哪些瓶颈?以下内容是根据达观数据联合创始人高翔在《深度学习与文本智能处理》直播的总结。 一、为什么做文本挖掘 什么是NLP?简单来说: NLP的目的是让机器能够理解人类的语言,是人和机器进行交流的技术 。它应用在我们生活中,像:智能问答、机器翻译、文本分类、文本摘要,这项技术在慢慢影响我们的生活。 NLP的发展历史非常之久,计算机发明之后,就有以机器翻译为开端做早期的NLP尝试,但早期做得不是很成功。直到上个世纪八十年代,大部分自然语言处理系统还是基于人工规则的方式,使用规则引擎或者规则系统来做问答、翻译等功能。 第一次突破是上个世纪九十年代,有了统计机器学习的技术,并且建设了很多优质的语料库之后,统计模型使NLP技术有了较大的革新。接下来的发展基本还是基于这样传统的机器学习的技术。从2006年深度学习开始,包括现在图像上取得非常成功的进步之后,已经对NLP领域领域影响非常大。 达观划分的NLP技术层次 当年上小学时有一本书叫《字词句篇与达标训练》,里面讲了字、词、句、篇,我们开始学写字,词是最基础的一级

深度学习的一点学习笔记(机器翻译相关)

て烟熏妆下的殇ゞ 提交于 2020-02-18 19:15:16
前沿 本次笔记主要会描述NLP的相关知识,包括RNN,GRU,LSTM等模型;以及机器翻译的相关技术;Seq2Seq等。 由于对RNN接触不多,尝试记一些笔记会很凌乱,但是可以顺着知识线,按照给出的链接去自行阅读相关知识。 RNN的基础知识 关于RNN,也是老生常谈的网络结构了,为了提醒自己,补充一点小观点。下面是一些博客上讲解RNN的链接。 RNN 这篇文章比较概述性的讲解了RNN的一些基本知识。 除此之外,RNN是一个序列形的结构,在实现机器翻译的时候,或者句子简单的预测,都是有多个RNN构成的长序列。 上图显示了RNN的结构,在pytorch中有如下代码: class RNNModel ( nn . Module ) : def __init__ ( self , hidden_size , vocab_size ) : super ( RNNModel , self ) . __init__ ( ) self . rnn = nn . RNN ( input_size = vocab_size , hidden_size = num_hiddens ) self . dense = nn . Linear ( hidden_size , vocab_size ) def forward ( self , inputs , state ) : # inputs.shape:

RNN预测

纵饮孤独 提交于 2020-02-17 01:42:50
RNN循环神经网络 实现文本预测 RNN原理: A -> Model -> B -> Model -> C -> … 所形成的句子[A, B, C, …] 先看结果: 预测 -> "不分开" 不分开 还知道多难 你心烦叫你也才有些天 别 爱着还是 说 外场米渐我知道 自己会太多走不走 一颗三废都不要我手 这样也和义 自己的受伤 让我刮 小用往 只要女生活能记不多 那果有在想要你们过去 我不能怕做 你否定不你 脑诉为要承透 融必我遇见你还是微笑 自然却没要让你看着我 想知到你去一遍想办得模样 我不开 小情掉在我情球 断于的弦 再怎么接 又上不见 你很快化没是 我不能听多久 如果说你的一样伴 训练情况: 结果是挺不满意的, 毕竟理解不是很深 基本思路框架 和以前线性模型比较相似 加载数据 – 处理数据 设置独热编码 分批数据 建立模型 训练模型 预测 正常导包 import numpy as np import torch import torch . nn as nn import torch . optim as optim import torch . nn . functional as F 加载数据, 自己找篇文章啥的都可以 提前把"\n"和"\t"这两个字符转为空格 设置可以由文字转数字, 数字转文字的字典 encoded 就是我们的训练数据, 也就是一列表的的数字,