paddle

情感分析

▼魔方 西西 提交于 2020-03-29 06:23:10
1.网络结构 2.数据源 数据集的训练集和测试集分别包含25000个已标注过的电影评论。其中,负面评论的得分小于等于4,正面评论的得分大于等于7,满分10分。 文章参考: https://www.paddlepaddle.org.cn/documentation/docs/zh/user_guides/nlp_case/understand_sentiment/README.cn.html from __future__ import print_function import paddle import paddle.fluid as fluid import numpy as np import sys import math CLASS_DIM = 2 #情感分类的类别数 EMB_DIM = 128 #词向量的维度 HID_DIM = 512 #隐藏层的维度 STACKED_NUM = 3 #LSTM双向栈的层数 BATCH_SIZE = 128 #batch的大小 word_dict = paddle.dataset.imdb.word_dict() train_reader = paddle.batch( paddle.reader.shuffle( paddle.dataset.imdb.train(word_dict), buf_size=25000), batch

飞桨重磅升级:支持千万规模分类任务训练,部署能力全面提升

大憨熊 提交于 2020-03-09 23:40:24
2020 年 2 月 27 日飞桨核心框架(以下简称Paddle)发布了1.7版本,这也是Paddle在2020年首个重大更新,下面让我们来看看具体的更新内容。 Paddle 1.7版本对框架功能层面进行了重点增强,预测部署能力全面提升,分布式训练发布PLSC支持千万规模分类任务,并对参数服务器模式进行了优化整合。对编译选项、编译依赖以及代码库进行了全面清理优化。模型库持续完善,优化了整体层次结构,增加了动态图模型实现。端到端开发套件和工具组件进一步完善。 01 训练框架 增加自动混合精度训练AMP接口和新控制流接口。 优化Tensor使用方式和显存分配策略。 新增支持NVIDIA DALI GPU数据预处理库。 持续优化基础OP的功能和性能。 动态图的功能进一步完善,性能大幅提升,对Data Independent的动态图模型提供转为静态图可预测部署模型的功能。 框架调试分析功能和易用性全面提升。 02 预测部署 服务器端预测库的Python API大幅优化,新增R语言、Go语言的预测API,并增加相关的使用方法和示例,强化了量化支持能力。 Paddle Lite支持无校准数据的训练后量化方法生成的模型,加强对OpenCL的支持,支持昆仑XPU的预测。 模型压缩库PaddleSlim重构裁剪、量化、蒸馏、搜索接口,与模型库充分打通,新增大规模可扩展知识蒸馏框架Pantheon。

使用飞浆实现波士顿房价预测

Deadly 提交于 2020-03-09 13:30:45
import paddle.fluid as fluid import paddle import numpy as np import os import matplotlib.pyplot as plt import matplotlib def menu(): print("*" * 100) print("1.数据处理") print("2.模型设计") print("3.训练配置") print("4.训练过程") print("5.保存并测试") print("*" * 100) def draw_train_process(iters, train_costs): title = "training cost" plt.title(title, fontsize=24) plt.xlabel("iter", fontsize=14) plt.ylabel("cost", fontsize=14) plt.plot(iters, train_costs, color='red', label='training cost') plt.grid() # plt.show() matplotlib.use('Agg') plt.savefig('./1.png') # 绘制真实值和预测值对比图 def draw_infer_result(groud_truths,

AI Studio在线部署及预测说明

ⅰ亾dé卋堺 提交于 2020-03-05 14:21:44
目录 功能说明 通过训练任务生成模型文件 创建一个在线服务 3.1 第一步 选择模型文件 3.2 第二步 确认输入输出 3.3 第三步 制作参数转换器 3.4 第四步 沙盒部署 测试沙盒服务 4.1 第一步 点击【测试】打开测试页面 4.2 第二步 填写json格式请求参数 4.3 第三步 点击【发送】检验返回结果 部署在线服务 调用在线服务 6.1 请求方式 6.2 调用示例 功能说明 在线部署与预测为开发者提供训练模型向应用化API转换的功能. 开发者在AI Studio平台通过NoteBook项目完成模型训练后, 在Notebook详情页通过创建一个在线服务, 应用模型生成在线API, 使用该API可以直接检验模型效果或实际应用到开发者的私有项目中.目前, 该功能暂时 仅对Notebook项目 开放。 通过训练任务生成模型文件 在训练任务过程中, 通过调用 paddle.fluid.io.save_inference_model ` 实现模型的保存 ,保存后的目录需要可以被在线服务使用. 我们以房价预测的线性回归任务为例, 具体代码如下 import paddle import paddle.fluid as fluid import numpy import math import sys from __future__ import print_function

paddle(二)

爱⌒轻易说出口 提交于 2020-02-29 03:59:44
一、优化器 1.SGD/SGDOptimizer SGD 是实现 随机梯度下降 的一个 Optimizer 子类,是 梯度下降 大类中的一种方法。 当需要训练大量样本的时候,往往选择 SGD 来使损失函数更快的收敛。 2.Momentum/MomentumOptimizer Momentum 优化器在 SGD 基础上引入动量,减少了随机梯度下降过程中存在的噪声问题。 3. Adagrad/AdagradOptimizer Adagrad 优化器可以针对不同参数样本数不平均的问题,自适应地为各个参数分配不同的学习率。4.RMSPropOptimizer RMSProp优化器 ,是一种自适应调整学习率的方法, 主要解决使用Adagrad后,模型训练中后期学习率急剧下降的问题。 5.Adam/AdamOptimizer Adam 的优化器是一种自适应调整学习率的方法, 适用于大多非 凸优化 、大数据集和高维空间的场景。在实际应用中,Adam 是最为常用的一种优化方法。 6.Adamax/AdamaxOptimizer Adamax 是 Adam 算法的一个变体,对学习率的上限提供了一个更简单的范围,使学习率的边界范围更简单。 7.DecayedAdagrad/ DecayedAdagradOptimizer DecayedAdagrad 优化器,可以看做是引入了衰减速率的 Adagrad

paddle(一)

会有一股神秘感。 提交于 2020-02-28 04:24:39
一、概述 一个机器学习的框架,提供了深度学习需要的神经网络,激活函数等主要功能。 基础概念 Program 一次模型训练就是一个program,通过执行器执行,默认环境下是执行fluid.default_startup_program(),用户对计算的描述都将写入一段Program。Fluid 中的 Program 替代了传统框架中模型的概念,通过对顺序执行、条件选择和循环执行三种执行结构的支持,做到对任意复杂模型的描述。 import paddle.fluid as fluid import numpy as np data = fluid.layers.data(name="input8", shape=[-1, 32,32], dtype="float32") label = fluid.layers.data(name="label8", shape=[1], dtype="int") fc_out = fluid.layers.fc(input=data, size=2) predict = fluid.layers.softmax(input=fc_out) result=fluid.layers.auc(input=predict, label=label) place = fluid.CPUPlace() exe = fluid.Executor(place)

图像分类(动手学深度学习)

狂风中的少年 提交于 2020-02-23 04:28:15
图像分类 本教程源代码目录在 book/image_classification , 初次使用请参考 PaddlePaddle 安装教程 ,更多内容请参考本教程的 视频课堂 。 背景介绍 图像相比文字能够提供更加生动、容易理解及更具艺术感的信息,是人们转递与交换信息的重要来源。在本教程中,我们专注于图像识别领域的一个重要问题,即 图像分类 。 图像分类是根据图像的语义信息将不同类别图像区分开来,是计算机视觉中重要的基本问题,也是图像检测、图像分割、物体跟踪、行为分析等其他高层视觉任务的基础。 图像分类在很多领域有广泛应用,包括安防领域的人脸识别和智能视频分析等,交通领域的交通场景识别,互联网领域基于内容的图像检索和相册自动归类,医学领域的图像识别等。 一般来说,图像分类通过手工特征或特征学习方法对整个图像进行全部描述,然后使用分类器判别物体类别,因此如何提取图像的特征至关重要。 在深度学习算法之前使用较多的是基于词袋(Bag of Words)模型的物体分类方法。 词袋方法从自然语言处理中引入,即一句话可以用一个装了词的袋子表示其特征,袋子中的词为句子中的单词、短语或字。对于图像而言,词袋方法需要构建字典。最简单的词袋模型框架可以设计为 底层特征抽取 、 特征编码 、 分类器设计 三个过程。 Now: 而基于深度学习的图像分类方法,可以通过有监督或无监督的方式 学习

paddle 改写动态图 notes

你说的曾经没有我的故事 提交于 2020-02-14 21:57:32
写一写把paddle静态图改写成动态图的notes。一是很多网络自己不太了解,二是paddle动态图很多不了解。在这里简单记一下,之后有时间好好整理。 fluid. layers. softsign softsign激活函数 fluid.layers.reduce_mean 对指定维度上的Tensor元素进行平均值算,并输出相应的计算结果。reduce_sum类似。 fluid.layers.sequence_pool 动态图还不支持。 将对输入的LoDTensor进行指定方式的池化(pooling)操作。通过指定pool_type参数,将输入的每个序列(sequence)在最后一层lod_level上或时间步(time-step)上对特征进行诸如sum、average、sqrt等池化操作。 比如有个sequence的batch [[0, 1, 2], [2, 3], [4, 5, 6, 7]] 这里池化的size分别是3, 2, 4。就是对这三个sequence分别做pool,比如maxpool的结果就是。[2, 3, 7] 来源: https://www.cnblogs.com/shona/p/12309443.html

百度飞浆深度学习(二)

吃可爱长大的小学妹 提交于 2020-01-30 07:13:15
目录 1.深度学习发展历程 1.1图灵测试 1.2分级处理信息 1.3深度学习 2.机器学习 2.1范畴 2.2分类 3.神经网络 3.1初识神经网络 3.2神经网络实例-paddle学习手写数字分类 第一步:准备数据 第二步:定义神经网络-卷积神经网络LeNet-5 第三步:初始化paddle 第四步:获取训练器 第五步:开始训练 1.深度学习发展历程 1.1图灵测试 图灵测试由艾伦·麦席森·图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。图灵测试一词来源于计算机科学和密码学的先驱艾伦·麦席森·图灵写于1950年的一篇论文《计算机器与智能》,其中30%是图灵对2000年时的机器思考能力的一个预测,目前我们已远远落后于这个预测。 1.2分级处理信息 大脑认知:1.边缘特征 2.基本形状和目标的局部特征 3.整个目标 高层的特征是低层特征的组合,从低层到高层的特征表达越来越抽象和概念化,也即越来越能表现语义或者意图。从视网膜出发,经过低级的V1区提取边缘特征,到V2区的基本形状或目标的局部,再到高层的整个目标(如判定为一张人脸),以及到更高层的PFC(前额叶皮层)进行分类判断等。 如下为人脑神经元作用示意图: 1

【深度学习】paddlepaddle——基于卷积神经网络的手写字识别案例

允我心安 提交于 2019-12-29 20:36:08
1 # 1、导包 2 import paddle.fluid as fluid 3 import paddle 4 import time 5 6 start = time.time() 7 8 9 def test_program(exe, feeder, program, fetch_list, reader): 10 """ 11 测试进程 12 :param exe:执行器 13 :param feeder: 数据与网络关系 14 :param program: 测试主进程 15 :param fetch_list: 需要执行之后返回的损失与准确率 16 :param reader: 测试reader 17 :return: 18 """ 19 # 训练次数 20 count = 0 21 # 整个测试集的总损失 22 sum_loss = 0 23 # 整个训练集的准确率 24 sum_acc = 0 25 for test_data in reader(): 26 test_avg_loss_value, test_acc_values = exe.run( 27 program=program, # 测试主进程 28 feed=feeder.feed(test_data), # 给测试喂数据 29 fetch_list=fetch_list # 需要执行之后返回的值