tensorflow

ERNIE时延降低81.3%,飞桨原生推理库Paddle Inference再升级

一个人想着一个人 提交于 2020-10-23 03:37:31
随着深度学习技术的成熟和人工智能的发展,机器开始变得越来越“聪明”,越来越了解用户的喜好和习惯。 下载安装命令 ## CPU版本安装命令 pip install -f https://paddlepaddle.org.cn/pip/oschina/cpu paddlepaddle ## GPU版本安装命令 pip install -f https://paddlepaddle.org.cn/pip/oschina/gpu paddlepaddle-gpu 近年来对于NLP的研究也在日新月异的变化,有趣的任务和算法更是层出不穷,百度提出知识增强的语义表示模型 ERNIE 就是其中的佼佼者。 ERNIE 在语言推断、语义相似度、命名实体识别、情感分析、问答匹配等各类NLP中文任务上的模型效果 全面超越 Bert ,成为NLP中文任务中的主流模型, ERNIE 2.0的论文(https://arxiv.org/abs/1907.12412)也被国际人工智能顶级学术会议AAAI-2020收录。 然而在模型效果大幅度提升的同时,模型的计算复杂性也大大增加,这使得 ERNIE 在推理部署时出现延时高,推理速度不理想 的情况,给产业实践带来了极大的挑战。 ​ 飞桨 开源框架1.8版本中, Paddle Inference在算子融合、TensorRT子图集成和半精度浮点数(Float 16)加速

标签平滑Label Smoothing

生来就可爱ヽ(ⅴ<●) 提交于 2020-10-23 03:28:28
Lable Smoothing 是分类问题中错误标注的一种解决方法。 对于分类问题,特别是多分类问题,常常把向量转换成one-hot-vector(独热向量) one-hot带来的问题:(对于独热的简单解释:https://blog.csdn.net/qq_43211132/article/details/96141409) 对于损失函数,我们需要用预测概率去拟合真实概率,而拟合one-hot的真实概率函数会带来两个问题: 1)无法保证模型的泛化能力,容易造成过拟合; 2) 全概率和0概率鼓励所属类别和其他类别之间的差距尽可能加大,而由梯度有界可知,这种情况很难适应。会造成模型过于相信预测的类别。 使用下面的 label smoothing 可以缓解这个问题: 原理:对于以Dirac函数分布的真实标签,我们将它变成分为两部分获得(替换)。 第一部分:将原本Dirac分布的标签变量替换为(1 - ϵ)的Dirac函数; 第二部分:以概率 ϵ ,在u(k) 中份分布的随机变量(u(k)是类别分之一) 代码: def label_smoothing(inputs, epsilon=0.1): K = inputs.get_shape().as_list()[-1] # number of channels return ((1-epsilon) * inputs) + (epsilon

Tensorflow深度学习入门与实战(全新2.0版本)

隐身守侯 提交于 2020-10-23 01:29:49
Tensorflow深度学习入门与实战(全新2.0版本,160讲完整版,附源码,课件和数据) 本课程讲解Tensorflow深度学习的概念和使用方法,适合有一定python语言基础和数据分析基础的学员学习参考;本课程用通俗易懂的实例,系统讲解了Tensorflow2.0的使用,结合大量案例教学 来源: oschina 链接: https://my.oschina.net/u/4409991/blog/4558800