一文彻底搞懂BERT
一文彻底搞懂BERT 一、什么是 BERT? 没错下图中的小黄人就是文本的主角 Bert ,而红色的小红人你应该也听过,他就是 ELMo 。 2018 年 发布的 BERT 是一个 NLP 任务的里程碑式模型,它的发布势必会带来一个 NLP 的新时代。 BERT 是一个算法模型,它的出现打破了大量的自然语言处理任务的记录。在 BERT 的论文发布不久后, Google 的研发团队还开放了该模型的代码,并提供了一些在大量数据集上预训练好的算法模型下载方式。 Goole 开源这个模型,并提供预训练好的模型 , 这使得所有人都可以通过它来构建一个涉及 NLP 的算法模型,节约了大量训练语言模型所需的时间,精力,知识和资源。 BERT 模型的全称是: BERT( B idirectional E ncoder R epresentations from T ransformers) 。 从名字中可以看出, BERT 模型的目标是利用大规模无标注语料训练、获得文本的包含丰富语义信息的 Representation 。 二、Bert模型原理 BERT 模型简介 BERT BASE: 与OpenAI Transformer 的尺寸相当,以便比较性能。 BERT LARGE: 一个非常庞大的模型,是原文介绍的最先进的结果。 BERT的基础集成单元是 Transformer的Encoder