二维

DataWhale组队打卡学习营task05-1 卷积神经网络基础

最后都变了- 提交于 2020-02-20 02:09:07
卷积神经网络基础 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 图1 二维互相关运算 下面我们用corr2d函数实现二维互相关运算,它接受输入数组X与核数组K,并输出数组Y。 import torch import torch . nn as nn def corr2d ( X , K ) : H , W = X . shape h , w = K . shape Y = torch . zeros ( H - h + 1 , W - w + 1 ) for i in range ( Y . shape [ 0 ] ) : for j in range ( Y . shape [ 1 ] ) : Y [ i , j ] = ( X [ i : i + h , j : j + w ] * K ) . sum ( ) return Y

《动手学深度学习》系列笔记 —— 卷积神经网络基础

萝らか妹 提交于 2020-02-19 17:56:52
1 卷积神经网络基础 1.1 二维卷积层 1.1.1 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 下面我们用 corr2d 函数实现二维互相关运算,它接受输入数组 X 与核数组 K ,并输出数组 Y 。 import torch import torch.nn as nn def corr2d(X, K): H, W = X.shape h, w = K.shape Y = torch.zeros(H - h + 1, W - w + 1) for i in range(Y.shape[0]): for j in range(Y.shape[1]): Y[i, j] = (X[i: i + h, j: j + w] * K).sum() return Y 构造上图中的输入数组 X 、核数组 K 来验证二维互相关运算的输出。 X = torch.tensor([[0, 1, 2], [3, 4, 5]

LeetCode 240 - 搜索二维矩阵 II

|▌冷眼眸甩不掉的悲伤 提交于 2020-02-19 07:53:37
编写一个高效的算法来搜索 m x n 矩阵 matrix 中的一个目标值 target。该矩阵具有以下特性: 每行的元素从左到右升序排列。 每列的元素从上到下升序排列。 示例: 现有矩阵 matrix 如下: [ [1, 4, 7, 11, 15], [2, 5, 8, 12, 19], [3, 6, 9, 16, 22], [10, 13, 14, 17, 24], [18, 21, 23, 26, 30] ] 给定 target = 5,返回 true。 给定 target = 20,返回 false。 初始坐标 $(i,j)$ 设定为最右上角,如果 $target<mat[i][j]$,那么坐标往左平移一格,因为这一列上的数字都大于 $target$;如果 $target>mat[i][j]$,则坐标往下平移一格,因为这一行上的数字都小于 $target$。 AC代码: class Solution { public: bool searchMatrix(const vector<vector<int>>& mat,int x) { if(mat.empty()) return 0; int i=0, j=mat[0].size()-1; while(i<mat.size() && j>=0) { if(x==mat[i][j]) return 1; else if(x

D2L-pytorch版 Task05笔记

狂风中的少年 提交于 2020-02-19 06:02:41
卷积神经网络基础 二维卷积层常用于图像处理。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 图1 二维互相关运算 二维卷积层 、 二维卷积层将输入和卷积核做互相关运算,并加上一个标量偏置来得到输出。卷积层的模型参数包括卷积核和标量偏置。 互相关运算与卷积运算 卷积层得名于卷积运算,但卷积层中用到的并非卷积运算而是互相关运算。我们将核数组上下翻转、左右翻转,再与输入数组做互相关运算,这一过程就是卷积运算。由于卷积层的核数组是可学习的,所以使用互相关运算与使用卷积运算并无本质区别。 特征图与感受野 二维卷积层输出的二维数组可以看作是输入在空间维度(宽和高)上某一级的表征,也叫特征图(feature map)。影响元素 x x x 的前向计算的所有可能输入区域(可能大于输入的实际尺寸)叫做 x x x 的感受野(receptive field)。 以图1为例

Datawhale 组队学习打卡营 任务13:卷积神经网络基础

落花浮王杯 提交于 2020-02-19 04:54:36
卷积神经网络基础 本章介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 目录 二维卷积层 二维互相关运算 二维卷积层 互相关运算和卷积运算 特征图和感受野 填充和步幅 填充 步幅 多输入通道和多输出通道 多输入通道 多输出通道 1*1卷积层 卷积层和全连接层的对比 卷积层的简洁实现 池层 二维池化层 池化层的简洁实现 二维卷积层 最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 下面我们用corr2d函数实现二维互相关运算,它接受输入数组X与核数组K,并输出数组Y。 import torch import torch . nn as nn def corr2d ( X , K ) : # X,K 分别是输入数组和核数组 H , W = X . shape # H, W 输入数组的长和宽 h , w = K .

python 实现 四叉树(二维平面进行管理的)

我的梦境 提交于 2020-02-18 21:40:48
# -*- coding: utf-8 -*- ''' @author: zou_albert ''' import pdb class Node ( ) : # 普通节点 反复调用 def __init__ ( self , parent , options , pos_num ) : ## pos_num 代表子节点的那个方位的数字 self . depth = parent . depth + 1 # if (self.depth >= options.tree_deep - 1): # # print "ERROR!!!! Maximum depth exceeded" # exit() # pdb.set_trace() self . parent_id = 0 self . is_leaf = 0 # 是否是叶节点呢 暂时可能不用 self . is_root = 0 self . parent = parent # 父母节点 # if 1 > 0: # print "zoujunboq" deltax = ( parent . xmax - parent . xmin ) / 2 deltay = ( parent . ymax - parent . ymin ) / 2 # if(self.depth == options.tree_deep - 1):

动手学习深度学习-----笔记二

China☆狼群 提交于 2020-02-18 14:22:44
1 过拟合、欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。训练误差(training error)指模型在训练数据集上表现出的误差和泛化误差(generalization error)。指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 给定训练数据集,模型复杂度和误差之间的关系: 一般来说,如果训练数据集中样本数过少,特别是比模型参数数量(按元素计)更少时,过拟合更容易发生。此外,泛化误差不会随训练数据集里样本数量增加而增大。 1.1 权重衰减方法 权重衰减等价于 L 2 L_2 L 2 ​ 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。 1.1.1 L2 范数正则化(regularization) L 2 L_2 L 2 ​ 范数正则化在模型原损失函数基础上添加 L 2 L_2 L 2 ​ 范数惩罚项,从而得到训练所需要最小化的函数。 L 2 L_2 L 2 ​

CAD_2018

别来无恙 提交于 2020-02-17 19:12:18
Auto CAD 2018 软件下载: 64位||||32位 软件介绍 Auto CAD 2018(Autodesk Computer Aided Design)是Autodesk(欧特克)公司开发的自动计算机辅助设计软件,用于二维绘图、详细绘制、设计文档和基本三维设计,现已经成为国际上广为流行的绘图工具。AutoCAD广泛应用于机械设计、工业制图、工程制图、土木建筑、装饰装潢、服装加工等多个行业领域。 来源: CSDN 作者: lzw625520 链接: https://blog.csdn.net/lzw625520/article/details/104359344

Task05:卷积神经网络基础;leNet;卷积神经网络进阶 学习笔记

江枫思渺然 提交于 2020-02-17 11:36:56
卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 下面我们用corr2d函数实现二维互相关运算,它接受输入数组X与核数组K,并输出数组Y。 import torch import torch.nn as nn def corr2d(X, K): H, W = X.shape h, w = K.shape Y = torch.zeros(H - h + 1, W - w + 1) for i in range(Y.shape[0]): for j in range(Y.shape[1]): Y[i, j] = (X[i: i + h, j: j + w] * K).sum() return Y 构造上图中的输入数组X

Matlab二维曲线之fplot函数

南楼画角 提交于 2020-02-17 09:19:50
fplot函数的格式:fplot(f, lims, 选项) 其中f代表一个函数,通常采用函数句柄的形式。lims为x轴的取值范围,用二元向量[xmin, xmax]描述,默认值为[-5, 5]。选项定义与plot函数相同,具体可参见: https://blog.csdn.net/Mrweng1996/article/details/104338453 。 代码示例: clc; clear all; f = @(x)sin(1./x); %构建匿名函数 fplot(f,[0,0.2],'b'); 运行结果: 来源: CSDN 作者: 星尘亦星辰 链接: https://blog.csdn.net/Mrweng1996/article/details/104340345