自然语言处理

「自然语言处理(NLP)」良心推荐:一文了解注意力机制(Attention)

最后都变了- 提交于 2021-02-20 16:47:43
喜欢我们,点击上方 AINLPer ,关注一下,极品干货即刻送达! 本文主要参考博 客: https://blog.csdn.net/intflojx/article/details/85338778 引言 相信很多小伙伴在看论文的时候,会时不时的遇到注意力机制(Attention)这个关键词。其实 注意力模型最近几年在深度学习各个领域被广泛使用,无论是在图像处理、语音识别还是自然语言处理中,都很容易遇到注意力模型的身影。 它其实是深度学习技术中最值得关注与深入了解的核心技术之一。 了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。 本文概要 1 什么是注意力机制(Attention) 2 Encoder-Decoder框架 3 Attention注意力机制 4 Attention小结 正文开始 1 什么是注意力机制(Attention) 深度学习中的注意力机制借鉴了人类的注意力思维方式。 我们首先人类的视觉注意力机制介绍开始。 举个例子: 比如当你看到一篇论文的时候,你的眼睛会快速的扫描论文第一页,接着首先将注意力集中到论文的标题(如果论文的第一页有图片,你也会去关注第一页中的图片是什么),然后你就会关注论文的摘要是什么,对于摘要区域,你会渐渐投入到更多地注意力,然后读懂摘要,进而了解文章的大概内容。

我写了套框架,把滑动窗口算法变成了默写题

狂风中的少年 提交于 2021-02-20 16:22:51
作者:labuladong 公众号:labuladong 若已授权白名单也必须保留以上来源信息 我有预感本文要火,所以先罗列一下我们号的所有算法套路集锦文章: 数据结构和算法学习指南 动态规划框架套路详解 回溯算法框架套路详解 BFS算法框架套路详解 二分搜索框架套路详解 双指针技巧套路汇总 滑动窗口框架套路详解(本文) 目前来说,以上几篇文章属于我们的镇号之宝,一直被其他人模仿,然而从未被超越。🤔 言归正传,鉴于前文 我作了首诗,保你闭着眼睛也能写对二分查找 的那首《二分搜索升天词》很受好评,并在民间广为流传,成为安睡助眠的一剂良方,今天在滑动窗口算法框架中,我再次编写一首小诗来歌颂滑动窗口算法的伟大: 关于双指针的快慢指针和左右指针的用法,可以参见前文 双指针技巧汇总 , 本文就解决一类最难掌握的双指针技巧:滑动窗口技巧,并总结出一套框架,可以保你闭着眼直接套出答案。 说起滑动窗口算法,很多读者都会头疼。这个算法技巧的思路非常简单,就是维护一个窗口,不断滑动,然后更新答案么。LeetCode 上有起码 10 道运用滑动窗口算法的题目,难度都是中等和困难。该算法的大致逻辑如下: int left = 0 , right = 0 ; while (right < s.size()) { // 增大窗口 window.add(s[right]); right++; while

基于CNN的电影推荐系统

末鹿安然 提交于 2021-02-19 07:49:51
从深度学习卷积神经网络入手,基于 Github 的开源项目来完成 MovieLens 数据集的电影推荐系统。 什么是推荐系统呢? 什么是推荐系统呢?首先我们来看看几个常见的推荐场景。 如果你经常通过豆瓣电影评分来找电影,你会发现下图所示的推荐: 如果你喜欢购物,根据你的选择和购物行为,平台会给你推荐相似商品: 在互联网的很多场景下都可以看到推荐的影子。因为推荐可以帮助用户和商家满足不同的需求: 对用户而言:找到感兴趣的东西,帮助发现新鲜、有趣的事物。 对商家而言:提供个性化服务,提高信任度和粘性,增加营收。 常见的推荐系统主要包含两个方面的内容,基于用户的推荐系统(UserCF)和基于物品的推荐系统(ItemCF)。两者的区别在于,UserCF 给用户推荐那些和他有共同兴趣爱好的用户喜欢的商品,而 ItemCF 给用户推荐那些和他之前喜欢的商品类似的商品。这两种方式都会遭遇冷启动问题。 下面是 UserCF 和 ItemCF 的对比: CNN 是如何应用在文本处理上的? 提到卷积神经网络(CNN),相信大部分人首先想到的是图像分类,比如 MNIST 手写体识别,CAFRI10 图像分类。CNN 已经在图像识别方面取得了较大的成果,随着近几年的不断发展,在文本处理领域,基于文本挖掘的文本卷积神经网络被证明是有效的。 首先,来看看 CNN 是如何应用到 NLP 中的

基于java的中文分词工具ANSJ

淺唱寂寞╮ 提交于 2021-02-18 16:00:13
ANSJ 这是一个基于n-Gram+CRF+HMM的中文分词的java实现. 分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上 目前实现了.中文分词. 中文姓名识别 . 用户自定义词典,关键字提取,自动摘要,关键字标记等功能 可以应用到自然语言处理等方面,适用于对分词效果要求高的各种项目. 分词的目的是创建一个高稳定可用的中文分词工具,可以利用到各种需要文字处理的场景中下面简单介绍一下Ansj中文分词的主要算法及特点. 数据结构 高度优化Trie树 在用户自定义词典以及各种类似于Map的场景中,大量使用的一个工具,众所周知,Trie具有高速的文本扫描能力,和较低的内存占用率,是最好的AC机之一,弦外之音,在我的认知范围内,貌似没有之一.相比其它结构在性能和构造上做到了很好的平衡,但是在java中,大量构建map尤其是hashmap,是一个非常昂贵的操作,通过对于一个map放入大量的key也注定其在自动拆箱装箱,以及解决冲突,大量hash匹配上做了过多的小消耗,虽然多数人认为,这种消耗属于纳秒级别的,但是对于动不动就上GB的文本来说,这个消耗是不可忽略的,所以作者在这里使用了首字母hash次字二分的方式来避免过多的消耗内存,也正应为有了这个机制.可以保证Ansj加载更多的用户自定义词典,有人问我具体的数字.大约500万词,1Gde 内存

产业实践推动科技创新,京东科技集团3篇论文入选ICASSP 2021

|▌冷眼眸甩不掉的悲伤 提交于 2021-02-18 10:54:06
ICASSP 2021将于2021年6月6日-11日在加拿大多伦多拉开序幕,凭借在语音技术领域的扎实积累和前沿创新,京东科技集团的_3篇_论文已经被 ICASSP 2021接收。 ICASSP全称International Conference on Acoustics, Speech and Signal Processing(国际声学、语音与信号处理会议),是由IEEE主办的全世界最大的,也是最全面的信号处理及其应用方面的顶级学术会议。京东科技集团此次的入选论文,在国际舞台全方位展示了 自身在语音增强、语音合成、多轮对话方面的实力。 01.Neural Kalman Filtering for Speech Enhancement 基于神经卡尔曼滤波的语音增强算法研究 * 论文链接: https://arxiv.org/abs/2007.13962 由于复杂环境噪声的存在,语音增强在人机语音交互系统中扮演重要的角色。基于统计机器学习的语音增强算法通常采用机器学习领域现有的常用模块(如全连接网络、递归神经网络、卷积神经网络等)构建增强系统。然而,如何将传统语音信号处理中基于专家知识的最优化滤波器设计理论,有效地应用到基于机器学习的语音增强系统中仍是一个仍未解决的问题。 京东科技集团入选论文《Neural Kalman Filtering for Speech

百度大脑EasyDL专业版最新上线自研超大规模视觉预训练模型

痴心易碎 提交于 2021-02-18 06:03:24
在学习与定制AI模型的过程中,开发者会面对各种各样的概念,在深度学习领域,有一个名词正在被越来越频繁地得到关注:迁移学习。它相比效果表现好的监督学习来说,可以减去大量的枯燥标注过程,简单来说就是在大数据集训练的预训练模型上进行小数据集的迁移,以获得对新数据较好的识别效果,因其能够大量节约新模型开发的成本,在实际应用中被更广泛地关注。EasyDL专业版在最新上线的版本中,就引入了百度超大规模视觉预训练模型,结合迁移学习工具,帮助开发者使用少量数据,快速定制高精度AI模型。 在训练一个深度学习模型时,通常需要大量的数据,但数据的采集、标注等数据准备过程会耗费大量的人力、金钱和时间成本。为解决此问题,我们可以使用预训练模型。以预训练模型A作为起点,在此基础上进行重新调优,利用预训练模型及它学习的知识来提高其执行另一项任务B的能力,简单来说就是在大数据集训练的预训练模型上进行小数据集的迁移,以获得对新数据较好的识别效果,这就是迁移学习(Transfer Learning)。迁移学习作为一种机器学习方法,广泛应用于各类深度学习任务中。在具体实现迁移学习时,有多种深度网络迁移方法,其中的Fine-tune(微调)是最简单的一种深度网络迁移方法,它主要是将已训练好的模型参数迁移到新的模型来帮助新模型训练。 在实际应用中,针对一个任务,我们通常不会从头开始训练一个模型,因为这非常耗时耗力

AI 语音对话技术

廉价感情. 提交于 2021-02-15 05:01:06
  机器学习以及自然语言处理技术的进步,开启了人与人工智能进行语音交互的可能,人们透过对话的方式获取信息、与机器进行交互,将不再只是存在科幻情结当中。语音交互是未来的方向,而智能音箱则是语音交互落地的第一代产品。 一、语音交互流程简介 AI 对话所需要的技术模块有 4 个部分,分别为: 自动语音识别(Automatic Speech Recognition, ASR) 自然语言理解(Natural Language Understanding, NLU) 自然语言生成(Natural Language Generation, NLG) 文字转语音(Text to Speech, TTS) 以叮咚开发文档中的语音交互流程图来看Ai 对话技术的主要路径: 从上图中可以看到,用户与设备之间的交互,主要是采用语音方式处理和完成的。 二、语音交互流程设计 一次完整的语音交互流程,成功的语音对话,通常是有以下几个阶段。 1.交互流程的核心—意图 所谓意图,表示用户在使用应用时所做的动作(譬如:问一个问题或发送一条指令),这些意图代表了应用的核心功能。 如果应用成功地识别了用户意图,则需要在完成业务动作后,将结果反馈给用户;如果应用无法识别用户意图,则需要给用户友好的提示,指导用户使用。 用户:七星彩的开奖时间是什么时候? Ai:体育彩票七星彩每周二、周四和周日开奖。 2. 如何识别意图

当年要是这样搞,我的C++也不至于这样

你离开我真会死。 提交于 2021-02-15 01:58:47
C++一直被称作永不过时的开发语言,比如游戏、服务器、人工智能等领域都必须用到C++! 虽然网上有很多教程和资料,但仍有很多人说C++难学,究其原因是 没有找到正确的学习方法 ! GoogleTest框架一直广泛应用于C/C++项目测试 ,是一个非常重要的测试软件。 它的开发过程几乎 覆盖C++核心知识和C++项目开发经常遇到的问题 ,是新手锻炼C++开发能力最好的项目之一! 因此,今天就给大家分享1个《 C++开发实战3天特训营 》! 这个训练营,老师会带你使用C++实现快速排序算法, 深刻理解C++编程思想 。 而且会重点带你经历,从GoogleTest实现原理到构建项目的全流程,让你能够从0到1独立开发一个C++项目, 快速提升项目能力 ! 特训营老师胡船长是我一直非常敬重的大神,他早在10年前就获得了 ACM亚洲区金牌 ,并 2次晋级全球总决赛 。 此后任职 百度知识图谱部 ,推动开发百度NLP推理引擎开发。 他也会从自己在百度多年的面试角度出发, 讲解大厂面试的核心关键点 ,教你如何准备大厂面试,拿下高薪offer! 特训营原价 599 元,靠着关系搞到 100 个免费名额, 0 元即可入学!只要你是统招本科及以上学历,就可以抢占! 长按3秒 即可扫码 你现在长按识别上方二维码或点击阅读原文,即可直接抢占 0 元免费名额。 本文分享自微信公众号 - 程序员cxuan

那周余嘉熊掌将得队 团队团队展示

本秂侑毒 提交于 2021-02-14 16:26:13
作业格式 课程名称: 软件工程1916|W(福州大学) 作业要求: 团队作业第一次—团队展示 团队名称:那周余嘉熊掌将得队 作业目标:创建团队,展示团队基本信息及团队特点。 团队信息 队名: 那周余嘉熊掌将得队 队员信息: 队员学号 队员姓名 博客地址 备注 221600131 Jamin https://www.cnblogs.com/JaminWu/ 队长 221600308 我超可爱的 http://www.cnblogs.com/XNC-SoCute/ 221600305 haziza http://www.cnblogs.com/haziza/ 221600340 你看见我的小熊了吗 https://www.cnblogs.com/stereohearts/ 221600426 Hunterj Lin https://www.cnblogs.com/HunterJ/ 021600823 玫葵 https://www.cnblogs.com/offeroques/ 团队描述: 生活不易,多才多艺 队员风采 Jamin 队员介绍:熟悉Web的前后端开发流程,对数据挖掘、NLP、CV都有很大兴趣,梦想成为学术能力与工程能力兼备的编程小白。 希望的角色:前端工程师和NLP算法工程师 一句话宣言:多读book,多看paper,少wechat,多sleep。 我超可爱的 队员介绍

积神经网络(CNN)的参数优化方法

不问归期 提交于 2021-02-12 22:44:46
http://www.cnblogs.com/bonelee/p/8528863.html 积神经网络的参数优化方法——调整网络结构是关键!!!你只需不停增加层,直到测试误差不再减少. 积神经网络(CNN)的参数优化方法 from:http://blog.csdn.net/u010900574/article/details/51992156 著名: 本文是从 Michael Nielsen的电子书 Neural Network and Deep Learning 的 深度学习 那一章的卷积神经网络的参数优化方法的一些总结和摘录,并不是我自己的结论和做实验所得到的结果。我想Michael的实验结果更有说服力一些。本书在github上有 中文翻译 的版本, 前言 最近卷积神经网络(CNN)很火热,它在图像分类领域的卓越表现引起了大家的广泛关注。本文总结和摘录了Michael Nielsen的那本Neural Network and Deep Learning一书中关于深度学习一章中关于提高泛化能力的一些概述和实验结果。力争用数据给大家一个关于 正则化 , 增加卷积层/全连接数 , 弃权技术 , 拓展训练集 等参数优化方法的效果。 本文并不会介绍 正则化 , 弃权(Dropout) , 池化 等方法的原理,只会介绍它们在实验中的应用或者起到的效果,更多的关于这些方法的解释请自行查询。