test

深度学习应用5.3线性回归问题进阶

邮差的信 提交于 2020-02-28 21:14:37
文章目录 zip作用 利用模型进行预测 显示损失 zip作用 参考深度学习5.2中的 zip的用法 zip的作用是把两个一维数组拼装在一起了 一项就是元组的一个数字 在这段代码中,每一次循环都是从x_data,和y_data中取出一组数据,这个数据填充到了前面两个占位符中,让他去运行。训练一轮后将结果画一个图 利用模型进行预测 x_test = 3.21 predit = sess . run ( pred , feed_dict = { x : x_test } ) print ( "预测值:%f" % predit ) target = 2 * x_test + 1 print ( "目标值:%f" % target ) 显示损失 每一次变化损失的变化 可以发现不是单调下降的,主要样本点有浮动 来源: CSDN 作者: #楚歌 链接: https://blog.csdn.net/weixin_39289876/article/details/104559005

Codeforces #624 div3 C

白昼怎懂夜的黑 提交于 2020-02-28 20:39:30
You want to perform the combo on your opponent in one popular fighting game. The combo is the string s s consisting of n n lowercase Latin letters. To perform the combo, you have to press all buttons in the order they appear in s s. I.e. if s = s=" abca" then you have to press ' a', then ' b', ' c' and ' a' again. You know that you will spend m m wrong tries to perform the combo and during the i i-th try you will make a mistake right after p i pi-th button ( 1 ≤ p i < n 1≤pi<n) (i.e. you will press first p i pi buttons right and start performing the combo from the beginning). It is guaranteed

【Google 机器学习笔记】十、TensorFlow 2.1 实战(二)基本图像分类(MNIST)

不想你离开。 提交于 2020-02-28 20:27:12
【Google 机器学习笔记】 十、TensorFlow 2.1 实战(二)基本图像分类   为节省时间,降低学习成本,本节实战的图片分类对象 tf.keras 中内置的 MNIST 数据集。   首先回顾机器学习编程的几个基本步骤     1. 数据       ① 获取数据       ② 处理数据       ③ 拆分数据       ④ 检查数据     2. 模型       ① 构建模型       ② 检查模型       ③ 训练模型       ④ 进行预测   现根据以上步骤进行实战训练 数据 获取数据 # 首先先导入 TF import tensorflow as tf # TF 的高级 API —— Keras from tensorflow import keras from tensorflow . keras import layers # 用到的第三方包 import numpy as np import matplotlib . pyplot as plt # TensorFlow 中为方便机器学习,内置了很多数据集在 tf.keras.datasets 中, # 而且已经将数据处理并拆分好了。具体使用方法可前往官网查看 API 文档 # 获取数据 ( train_images , train_labels ) , ( test_images ,

你的颜值能打多少分?让飞桨来告诉你

穿精又带淫゛_ 提交于 2020-02-28 19:32:02
【飞桨开发者说】钟山,中科院信工所工程师,主要研究计算机视觉、深度学习。 想必很多人都对自己的颜值到底怎样充满好奇,也有很多软件为大家提供了颜值打分的趣味功能。其实,颜值打分也可以视为一个图像分类问题,今天就向大家介绍如何利用飞桨搭建一个VGG网络,实现一个简单的颜值打分demo。 ​ 01 VGGNet介绍 VGGNet 由牛津大学的视觉几何组(Visual Geometry Group)和 Google DeepMind 公司提出,是 ILSVRC-2014 中定位任务第一名和分类任务第二名。提出 VGGNet 的主要目的是为了探究在大规模图像识别任务中,卷积网络深度对模型精确度的影响。通过VGGNet,研究人员证明了基于尺寸较小的的卷积核,增加网络深度可以有效提升模型的效果。VGGNet结构简单,模型的泛化能力好,因此受到研究人员青睐而广泛使用,到现在依然经常被用作图像特征提取。 VGGNet引入“模块化”的设计思想,将不同的层进行简单的组合构成网络模块,再用模块来组装完整网络,而不再是以“层”为单元组装网络。VGGNet有5种不同的VGGNet 配置,如上表所示。其中每一列代表一种网络配置,分别用 A~E 来表示。从表格中可以看出所有VGG配置都有五个卷积模块,模块中所有卷积都是3×3卷积核(conv3),因此特征图的尺寸在模块内不是变的,每个模块卷积之后紧接着最大池化层

webpack的安装与使用(二)

半腔热情 提交于 2020-02-28 18:54:56
配置webpack.config.js (一)打包bundle.js文件 不想手动指定入口和出口文件,就需要创建一个配置文件,把需要的配置写在配置文件里面。 项目根目录下新建一个webpack.config.js 1.打包bundle.js的配置 const path=require('path'); module.exports={ entry:path.join(__dirname,'./src/main.js'), output:{ path:path.join(__dirname,'./dist'), filename:'bundle.js' } } 配置完了之后,在终端输入webpack就会执行配置文件里面的代码,重新打包了bundle.js了。 这样刷新网页就可以看到修改js而产生的效果了。 (二)使用webpack-dev-server工具 1.第一种方式 (1)运行 npm i webpack-dev-server -D 把这个工具安装到项目的本地开发依赖。 (2)安装完毕后,这个工具的用法和webpack命令的用法完全一样。在终端输入webpack-dev-server(由于webpack-dev-server是在项目安装的没有全局安装,所以,直接在终端输入webpack-dev-server报错了,只有那些安装到全局 -g 的工具,才能在终端中正常执行)

ubuntu18.04 | NVIDIA driver + CUDA-10.2 + cuDNN-7.6.5 + Pytorch + TensorFlow-gpu-2.1.0 + OpenCV-4.2.

我怕爱的太早我们不能终老 提交于 2020-02-28 17:45:06
一. NVIDIA显卡驱动 参考: https://www.cnblogs.com/abelsu/p/10625616.html 1. 安装前准备 (1). 检查是否有卡 一般购入电脑时就能有所了解,并且带有该显卡的电脑,都会有NVIDIA的绿色标识贴在机身上,只需要进一步确认就可以: $ lspci | grep -i nvidia 如果输出有带NVIDIA字符就可以了。 (2). 关闭Security Boot 重启电脑,在开机过程中连续敲击某个键进入BOIS设置,我的是F2,有的电脑是F6,F12等,不确定的可以根据电脑情况查一下。 选择Security Boot一栏,回车将Enable改为Disable。 2. 安装NVIDIA显卡驱动 (1). 禁用nouveau 可以先检查一下是否禁用,我的在安装系统时就一并禁用了: $ lsmod | grep nouveau 没有输出则证明被禁用了。 如果有输出,则执行: $ sudo gedit /etc/modprobe.d/blacklist.conf 在文末添加:blacklist nouveau,保存关闭后执行: $ sudo update-initramfs -u 重启电脑再执行: $ lsmod | grep nouveau (2). 把显卡驱动加入PPA: 卸载系统里的低版本驱动: $ sudo apt-get

Eclipse 中 新建maven项目 无法添加src/main/java 问题

别等时光非礼了梦想. 提交于 2020-02-28 17:12:30
eclipse创建maevn web项目,在选择maven_archetype_web原型后,默认只有src/main/resources这个Source Floder。 按照maven目录结构,添加src/main/java、src/test/java等Source Floder时,会报The folder is already a source folder的错误。 解决办法:用Navigator视图,直接在src/main目录下建立java目录。 分析原因: 项目属性->Java Build Path->Source,会看到src/main/java, src/test/java已存在,但是Missing。所以只需要创建目录,Source Floder就出现了。 来源: oschina 链接: https://my.oschina.net/u/1778309/blog/375219

centos7 搭建svn服务器

元气小坏坏 提交于 2020-02-28 16:37:49
1、安装svn服务器: yum install subversion 2、配置svn服务器: 建立svn版本库根目录及相关目录即svndata及密码权限命令svnpasswd; mkdir -p /application/{svndata,svnpasswd} svndata目录:作为存放svn的根目录; svnpasswd目录:作为存放登录svn的用户和密码; 3、启动svn服务: svnserve -d -r /application/svndata/ 参数: -d:表示后台运行守护模式; -r:表示svn服务的根目录; 检测svn端口3690是否已经监听: netstat -lntup | grep 3690 4、建立版本库: 在/application/svndata/目录下,创建项目sadoc: svnadmin create /application/svndata/sadoc 会自动创建出一系列固定的目录: tree /application/svndata/sadoc /application/svndata/sadoc ├── conf │ ├── authz │ ├── passwd │ └── svnserve.conf ├── db │ ├── current │ ├── format │ ├── fsfs.conf │ ├── fs-type │ ├──

Fizz Buzz in tensorflow

微笑、不失礼 提交于 2020-02-28 15:34:40
code from keras.layers.normalization import BatchNormalization from keras.models import Sequential from keras.layers.core import Dense,Dropout,Activation from keras.optimizers import SGD,Adam import numpy as np import os os.environ["TF_CPP_MIN_LOG_LEVEL"]='3' def fizzbuzz(start,end): x_train,y_train=[],[] for i in range(start,end+1): num = i tmp=[0]*10 j=0 while num : tmp[j] = num & 1#这位是1吗 num = num>>1#右移一位 j+=1 x_train.append(tmp) if i % 3 == 0 and i % 5 ==0: y_train.append([0,0,0,1]) elif i % 3 == 0: y_train.append([0,1,0,0]) elif i % 5 == 0: y_train.append([0,0,1,0]) else : y_train.append(

三个输入框的测试报告

感情迁移 提交于 2020-02-28 14:45:05
三个输入框的测试报告 规格要求: 设计输入三个输入框,每个输入框中只能输入长度为1-6的字幕或数字。 实现功能 使用java实现功能。代码如下: 1 public class Input extends Application { 2 3 public static void main(String[] args) { 4 launch(); 5 } 6 7 @Override 8 public void start(Stage stage) throws Exception { 9 // draw UI and set evnetListenners 10 VBox root = new VBox(10); 11 TextField[] inputField = new TextField[3]; 12 for (int i = 0; i < 3; i++) { 13 inputField[i] = new TextField(); 14 } 15 Button btn = new Button("OK!"); 16 btn.setOnAction(new CheackInputsListenner(inputField)); 17 root.getChildren().addAll(inputField[0], inputField[1], inputField[2], 18