shorttext

【Meta learning in NLP】Text Classification

[亡魂溺海] 提交于 2020-11-17 09:03:06
元学习meta learning研究在CV方向占据大部分比例,论文总结比比皆是。本文主要汇总下近些年元学习在NLP文本分类方向 Text Classification 的研究论文,供相关研究人员参考。 同时欢迎大家关注小样本学习方法专栏~,持续更新小样本学习领域最新研究内容以及个人思考总结。 小样本学习方法(FSL) ​ www.zhihu.com 【1】 Meta-learning for Few-shot Natural Language Processing: A Survey 摘要: 少样本自然语言处理(NLP)指的是NLP任务只附带少量的标记样本。这是一个人工智能系统必须学会应对的现实挑战。通常我们依赖于收集更多的辅助信息或开发更有效的学习算法。然而,高容量模型中基于梯度的一般优化,如果从头开始训练,则需要在大量标记样本上执行许多参数更新步骤,以获得良好的性能。如果目标任务本身不能提供更多的信息,那么收集更多具有丰富注释的任务来帮助模型学习如何?元学习的目标是训练具有丰富注释的各种任务的模型,这样它就可以只使用几个标记样本来解决一个新任务。其核心思想是训练模型的初始参数,使模型在经过零步或几个梯度步更新后,对新任务具有最大的性能。已经有一些关于元学习的调查。然而,本文主要研究NLP领域,尤其是少镜头应用。我们试图提供更清晰的定义

论文列表——text classification

萝らか妹 提交于 2020-05-07 18:33:45
https://blog.csdn.net/BitCs_zt/article/details/82938086 列出自己阅读的text classification论文的列表,以后有时间再整理相应的笔记。阅读价值评分纯粹是基于自己对于文章的理解,标准包括:动机、方法、数据集质量、实验安排、相关工作等,满分为5。列表如下: 名称 所属会议 类型 时间 阅读价值 Recurrent Convolutional Neural Networks for Text Classification AAAI long paper 2015 4.5 Do Convolutional Networks need to be Deep for Text Classification ? AAAI 2017 work shop 4.5 Learning Structured Representation for Text Classification via Reinforcement Learning AAAI 2018 long paper 4 Enriching Word Vectors with Subword Information ACL 2017 long paper 4 Deep Pyramid Convolutional Neural Networks for Text