Uniform

Oracle管理表空间和数据文件详解

本秂侑毒 提交于 2020-12-05 11:11:17
Oracle管理表空间和数据文件详解 介绍 表空间是数据库的逻辑组成部分 从物理上将:数据库数据存放在数据文件中 从逻辑上将:数据库则是存放在表空间中 表空间由一个或是多个数据文件组成 数据库的逻辑结构 介绍: Oracle中逻辑结构包括表空间、段、区、块 说明: 数据库由表空间构成 而表空间又是由段构成 而段又是由区构成 而区又是由Oracle块构成 这样的一种结果,可以提高数据库的效率 表空间 介绍: 表空间用于从逻辑上组织数据库的数据 数据库逻辑上是由一个或是多个表空间组成的 表空间的作用: 1、控制数据库占用的磁盘空间 2、dba可以将不同数据类型部署到不同的位置。这样有利于提高i/o性能,同时利于备份和恢复等管理操作 建立表空间 建立表空间是使用create tablespace命令完成的,要注意时,一般情况下,建立表空间是特权用户或是dba来执行的,如果用其它用户来创建表空间,则用户必须要具有create tablespace的系统权限 建立数据表空间 在建立数据库后,为便于管理表,最好建立自己的表空间 create tablespace 表空间名 datafile '数据文件路径' size 数据文件的大小 uniform size 区的大小; create tablespace tangtao001 datafile 'd:\t001.dbf' size 20m

WebGL编程指南读书笔记 | 第二章 WebGL入门

送分小仙女□ 提交于 2020-11-30 07:01:33
getrWebGLContext() 获取上下文 gl.clearColor() 指定绘图区域背景色 R,G,B,A gl.clear(buffer) 将缓冲区设定为预定的值,颜色、深度、模板缓冲区 着色器(shader) WebGL有两种着色器: 顶点着色器(Vertex shader) 用来描述顶点特性(位置、颜色)的程序 顶点(Vertex)指二维或三维空间中的点 片元着色器(Fragment shader)进行逐片元处理过程 片元(fragment) 像素 图像的单元 顶点着色器指定点的位置和尺寸 片元着色器指定点的颜色 initShader(gl, vshader, fshader) 在WebGL系统内部建立和初始化着色器 齐次坐标 提高处理三维数据的效率(x,y,z,w)等价于(x/w,y/w,z/w) w的值大于等于0 gl.FragColor 内置变量 指定片元颜色 WebGL的坐标系统 右手坐标系 canvas坐标 中心点(0,0,0) 上下左右边缘分别为1 attribute 存储限定符 数据从着色器外部传入给该对象 attribute vec4 a_Position 获取attribute变量的存储位置: gl.getAttribLocation(gl.program,name) 程序对象,包括顶点着色器和片元着色器 向attribute变量传值 gl

机器学习经典算法之KNN

▼魔方 西西 提交于 2020-11-30 01:01:46
一、前言 KNN 的英文叫 K-Nearest Neighbor,应该算是数据挖掘算法中最简单的一种。 先用一个例子体会下。 /*请尊重作者劳动成果,转载请标明原文链接:*/ /* https://www.cnblogs.com/jpcflyer/p/11111817.html * / 假设,我们想对电影的类型进行分类,统计了电影中打斗次数、接吻次数,当然还有其他的指标也可以被统计到,如下表所示。 我们很容易理解《战狼》《红海行动》《碟中谍 6》是动作片,《前任 3》《春娇救志明》《泰坦尼克号》是爱情片,但是有没有一种方法让机器也可以掌握这个分类的规则,当有一部新电影的时候,也可以对它的类型自动分类呢? 我们可以把打斗次数看成 X 轴,接吻次数看成 Y 轴,然后在二维的坐标轴上,对这几部电影进行标记,如下图所示。对于未知的电影 A,坐标为 (x,y),我们需要看下离电影 A 最近的都有哪些电影,这些电影中的大多数属于哪个分类,那么电影 A 就属于哪个分类。实际操作中,我们还需要确定一个 K 值,也就是我们要观察离电影 A 最近的电影有多少个。 二、KNN 的工作原理 “近朱者赤,近墨者黑”可以说是 KNN 的工作原理。整个计算过程分为三步: 1. 计算待分类物体与其他物体之间的距离; 2. 统计距离最近的 K 个邻居; 3.对于 K 个最近的邻居,它们属于哪个分类最多

一文速览EMNLP 2020中的Transformer量化论文

怎甘沉沦 提交于 2020-11-27 09:02:37
花了几天看了三篇EMNLP 2020中关于Transformer模型量化的相关论文,快速记一下要点。 Fully Quantized Transformer for Machine Translation 这篇是华为诺亚方舟实验室和蒙特利尔大学合作的,发表在findings上面。 「论文地址:」 https://www. aclweb.org/anthology/20 20.findings-emnlp.1.pdf 方法 针对Transformer结构的计算密集型算子进行了activation量化,除了bias以外的所有weight进行了量化,这一点其实我们组也都做过了。 采用的是量化感知训练(QAT),反向传播采用的是straight-through estimator。 考虑到每个channel的分布有差异,因此针对每个channel单独学习量化的scale参数。 零值的处理:padding无需考虑,反正会被mask掉。ReLU和attention softmax之后的量化强制定义量化下界为0。量化全部加在dropout之前。 剪枝采用结构化剪枝,因为稀疏性剪枝需要硬件或库支持,比较麻烦。这里只对FFN参数进行剪枝,而且不是采用传统的百分比阈值,而是根据ReLU之后值计算出第一层FFN输出的每一列的max值,根据max值是否超过一定阈值来剪枝

Python3网络爬虫(一):利用urllib进行简单的网页抓取

安稳与你 提交于 2020-11-26 03:58:06
一、预备知识 1.Python3.x基础知识学习: 可以在通过如下方式进行学习: (1)廖雪峰Python3教程(文档): URL: http://www.liaoxuefeng.com/ (2)菜鸟教程Python3教程(文档): URL: http://www.runoob.com/python3/python3-tutorial.html (3)鱼C工作室Python教程(视频): 小甲鱼老师很厉害,讲课风格幽默诙谐,如果时间充裕可以考虑看视频。 URL: http://www.fishc.com/ 2.开发环境搭建: Sublime text3搭建Pyhthon IDE可以查看博客: URL: http://www.cnblogs.com/nx520zj/p/5787393.html URL: http://blog.csdn.net/c406495762/article/details/56489253 二、网络爬虫的定义 网络爬虫,也叫网络蜘蛛(Web Spider),如果把互联网比喻成一个蜘蛛网,Spider就是一只在网上爬来爬去的蜘蛛。网络爬虫就是根据网页的地址来寻找网页的,也就是URL。举一个简单的例子,我们在浏览器的地址栏中输入的字符串就是URL,例如: https://www.baidu.com/ URL就是同意资源定位符(Uniform Resource

python课堂整理24----时间和随机数模块

不想你离开。 提交于 2020-11-25 04:19:02
一、时间模块 1. 时间戳,做计算用 得到的是秒数,从1976年1月1日0点开始算到现在 import time print(time.time()) 2. 结构化时间 显示的是当前的年月日、时间 可以通过赋给一个变量,然后获取想要的值(例:提取年份) import time print(time.localtime()) t = time.localtime() print(t.tm_year) 3. 将时间戳转化为结构化时间 参数:秒 import time print(time.localtime(1272352345)) 4. 世界标准时间,UTC(英国时区) import time print(time.gmtime()) 5. 将结构化时间转换为时间戳 import time print(time.mktime(time.localtime())) 6. 将结构化时间转换为字符串时间strftime %Y:年 %m:月 %d:日 %X:时分秒,中间的“-”可以自定义 import time print(time.strftime("%Y-%m-%d %X", time.localtime()))    7. 将字符串时间转换为结构化时间strptime 8. 将结构化时间转换为固定格式的字符串时间 import time print(time.asctime())

python笔记-6(import导入、time/datetime/random/os/sys模块)

别说谁变了你拦得住时间么 提交于 2020-11-25 01:52:11
一、了解模块导入的基本知识 此部分此处不展开细说import导入,仅写几个点目前的认知即可。其它内容待日后有深入理解了再来细说 1、import可以导入的两种不同的内容 1.1 *.py文件结尾的文件 1.2 package文件 package和文件夹图标类似,package中又__init__.py的文件 2、模块导入的几种导入方式 2.1 from xxx import xxx as xxx 2.2 from xxx import xxx as xxx as xxx 别名 2.3 import xxx 3、import 和 from xxx import 的区别 import xxx的本质是执行py文件,import package是执行__init__.py from xxx import xxx 的本质是将xxx部分的内容复制到本地,进行调用。 4、需要重点掌握给sys(python解释器)添加环境变量的方法 4.1 os.path.abs(文件) 4.2 os.path.dirname(绝对路径) 4.3 sys.path.append()/sys.path.insert() 二、time模块-->时间模块 1、要熟悉时间的三种表示方式 1.1、格式化字符串 ‘2018-2-1 11:11:12’ 此处的格式我们可以随意去自定义,其实质是按照固定的格式

美团面试官问我: ZGC 的 Z 是什么意思

我怕爱的太早我们不能终老 提交于 2020-11-23 23:06:57
> 本文的阅读有一定的门槛,请先了解 GC 的基本只知识。 现代垃圾收集器的演进大部分都是往减少停顿方向发展。 像 CMS 就是分离出一些阶段使得应用线程可以和垃圾回收线程并发,当然还有利用回收线程的并行来减少停顿的时间。 基本上 STW 阶段都是利用多线程并行来减少停顿时间,而并发阶段不会有太多的回收线程工作,这是为了不和应用线程争抢 CPU,反正都并发了慢就慢点(不过还是得考虑内存分配速率)。 而 G1 可以认为是打开了另一个方向的大门: 只回收部分垃圾来减少停顿时间 。 不过为了达到只回收部分 reigon,每个 region 都需要 RememberSet 来记录各 region 之间的引用。这个内存的开销其实还是挺大的,可能会占据整堆的20%或以上。 并且 G1 还有写屏障的开销,虽说用了 logging wtire barrier,但也还是有开销的。 当然 CMS 也用了写屏障,不过逻辑比较简单,啥都没判断就单纯的记录。 其实 G1 相对于 CMS 只有在大堆的场景下才有优势,CMS 比较伤的是 remark 阶段,如果堆太大需要扫描的东西太多。 而 G1 在大堆的时候可以选择部分收集,所以停顿时间有优势。 今天的主角 ZGC 和 G1 一样是基于 reigon 的, 几乎所有阶段都是并发的,整堆扫描,部分收集 。 而且 ZGC 还不分代,就是没分新生代和老年代。

Paper | Contrast Limited Adaptive Histogram Equalization

不羁岁月 提交于 2020-11-19 04:08:37
Contrast Limited Adaptive Histogram Equalization Contrast Limited Adaptive Histogram Equalization 1. 背景 1.1. 对比度和直方图均衡HE 1.2 HE的问题 1.3 AHE 1.4 底噪问题 2. CLAHE 2.1 效果展示 2.2 算法格式和细节 1. 背景 1.1. 对比度和直方图均衡HE “对比度contrast ratio”这一概念,类似于“动态范围dynamic range”,衡量的是图像中亮区与暗区的比例。 对比度实际上没有统一的测量标准,参见: 维基百科 但我们知道,对比度是影响图像视觉效果的重要因素。 对比度小的图像,其色彩层次少,看起来要么太亮,要么太暗。如下图(太暗): 实际上摄影师是为了追求这种效果啦,但我们还是拿来做一个demo。 利用MATLAB内置的histeq函数,可以得到对比度增强的图片: img=imread('Cloudy Night View.jpg'); rimg=img(:,:,1); gimg=img(:,:,2); bimg=img(:,:,3); resultr=histeq(rimg); resultg=histeq(gimg); resultb=histeq(bimg); result=cat(3,resultr

TensorFlow随机值函数:tf.random_uniform

╄→尐↘猪︶ㄣ 提交于 2020-11-18 07:31:02
tf.random_uniform 函数 random_uniform( shape, minval= 0, maxval=None, dtype=tf.float32, seed=None, name=None ) 定义在: tensorflow/python/ops/random_ops.py . 请参阅指南: 生成常量,序列和随机值>随机张量 从均匀分布中输出随机值. 生成的值在该 [minval, maxval) 范围内遵循均匀分布.下限 minval 包含在范围内,而上限 maxval 被排除在外. 对于浮点数,默认范围是 [0, 1).对于整数,至少 maxval 必须明确地指定. 在整数情况下,随机整数稍有偏差,除非 maxval - minval 是 2 的精确幂.对于maxval - minval 的值,偏差很小,明显小于输出(2**32 或者 2**64)的范围. 参数: shape:一维整数张量或 Python 数组.输出张量的形状. minval:dtype 类型的 0-D 张量或 Python 值;生成的随机值范围的下限;默认为0. maxval:dtype 类型的 0-D 张量或 Python 值.要生成的随机值范围的上限.如果 dtype 是浮点,则默认为1 . dtype:输出的类型:float16、float32、float64、int32