table

Transact SQL 常用语句以及函数

末鹿安然 提交于 2020-04-07 00:54:24
Transact SQL 语 句 功 能 ========================================================================    -- 数据操作    SELECT -- 从数据库表中检索数据行和列        INSERT -- 向数据库表添加新数据行        DELETE -- 从数据库表中删除数据行        UPDATE -- 更新数据库表中的数据    -- 数据定义    CREATE TABLE -- 创建一个数据库表        DROP TABLE -- 从数据库中删除表        ALTER TABLE -- 修改数据库表结构        CREATE VIEW -- 创建一个视图        DROP VIEW -- 从数据库中删除视图        CREATE INDEX -- 为数据库表创建一个索引        DROP INDEX -- 从数据库中删除索引        CREATE PROCEDURE -- 创建一个存储过程        DROP PROCEDURE -- 从数据库中删除存储过程        CREATE TRIGGER -- 创建一个触发器        DROP TRIGGER -- 从数据库中删除触发器        CREATE

Transact SQL 常用语句以及函数

狂风中的少年 提交于 2020-04-07 00:06:11
Transact SQL 语 句 功 能 ========================================================================    -- 数据操作    SELECT -- 从数据库表中检索数据行和列        INSERT -- 向数据库表添加新数据行        DELETE -- 从数据库表中删除数据行        UPDATE -- 更新数据库表中的数据    -- 数据定义    CREATE TABLE -- 创建一个数据库表        DROP TABLE -- 从数据库中删除表        ALTER TABLE -- 修改数据库表结构        CREATE VIEW -- 创建一个视图        DROP VIEW -- 从数据库中删除视图        CREATE INDEX -- 为数据库表创建一个索引        DROP INDEX -- 从数据库中删除索引        CREATE PROCEDURE -- 创建一个存储过程        DROP PROCEDURE -- 从数据库中删除存储过程        CREATE TRIGGER -- 创建一个触发器        DROP TRIGGER -- 从数据库中删除触发器        CREATE

sqlLiteDatebase函数参数分析

我与影子孤独终老i 提交于 2020-04-06 22:07:05
1、SQLiteDataBase对象的query()接口: public Cursor query ( String table, String[] columns, String selection, String[] selectionArgs,                                String groupBy, String having, String orderBy, String limit) Query the given table, returning a Cursor over the result set. Parameters table The table name to compile the query against.( 要查询的表名. ) columns A list of which columns to return. Passing null will return all columns, which is discouraged to prevent reading data from storage that isn't going to be used.( 想要显示的列,若为空则返回所有列,不建议设置为空,如果不是返回所有列 ) selection A filter declaring which rows

页目录项和页表项

混江龙づ霸主 提交于 2020-04-06 21:53:44
前言 先看看分页机制里面的页目录表、页表、页之间的关系。分页机制是用于将一个线性地址转换为一个物理地址。 在I32 CPU环境里面,首先通过设置CR0寄存器,打开保护模式、开启分页机制。然后将页目录表的物理地址基址给CR3寄存器。开启分页机制后,I32将全部的物理内存空间、线性地址空间划分为一个个的页。每个页可以是4KB或者4MB。 页目录表里面存放页目录表项,每个页目录表项指向页表。其中页目录表项的高20位为对应页表的物理地址的高20位。低12位为属性位。 页表里面存放着页表项,每个页表项指向页。其中页表项的高20位为对应页的物理地址的高20位,低12为属性位。 经过上面这三个结构,CPU就有了将线性地址转换为物理地址的基础。 当CPU拿到一个线性地址后,需要将其转换为物理地址。其中一个32位的线性地址分为三部分:最高10位,中10位,低12位。 其中高10位表示这个物理地址属于页目录表的那一项管辖,通过这个页目录表项就可以得到对应指向的页表的物理基址。 中10位表示这个物理地址属于上一步得到的页表里面第几项管辖。通过这个页表项就可以得到这个物理地址所在的页的物理基址。 低12位表示这个物理地址在所属的页(上一步确定了这个页的物理基址)里面的偏移。 页目录项和页表项 上图就是页目录项和页表项的格式。可以看出,由于页表或者页的物理地址都是4KB对齐的(低12位全是零)

centos8平台使用parted管理分区

ε祈祈猫儿з 提交于 2020-04-06 17:24:13
一,parted的用途 parted是GNU发布的强大的分区工具, parted命令可以划分单个分区大于2T的GPT格式的分区,也可以划分普通的MBR分区。 因为fdisk命令对于大于2T的分区无法划分,所以用fdisk无法看到parted划分的GPT格式的分区 说明:刘宏缔的架构森林是一个专注架构的博客,地址: https://www.cnblogs.com/architectforest 对应的源码可以访问这里获取: https://github.com/liuhongdi/ 说明:作者:刘宏缔 邮箱: 371125307@qq.com 二,两种分区表:MBR分区表/GPT分区表的比较 MBR分区表:(MBR含义:主引导记录) 所支持的最大卷:2T (T: terabytes,1TB=1024GB) 对分区的设限:最多4个主分区或3个主分区加一个扩展分区。 GPT分区表:(GPT含义:GUID Partition Table,即GUID分区表) 支持最大卷:18EB,(E:exabytes,1EB=1024TB) 每个磁盘最多支持128个分区 所以如果要大于2TB的卷或分区就必须得用GPT分区表 三,parted命令所属的包及安装 1,所属的包 [root@blog ~]# whereis parted parted: /usr/sbin/parted /usr/share

Python第三方包之PrettyTable

自作多情 提交于 2020-04-06 13:41:09
Python第三方包之PrettyTable 可以让我们将数据用表格的方式展示出来 安装方式 pip install PrettyTable 测试是否安装成功 使用方法与对比 增加一条数据 先简单的看下如何使用以及效果 import prettytable table = prettytable.PrettyTable() # 定义表头 table.field_names = ['name','age','sex'] # 增加一行数据,列表里的元素按照顺序对应表头 table.add_row(['Jruing','23','男']) print(table) 效果 增加一个字段 import prettytable table = prettytable.PrettyTable() # 定义表头 table.field_names = ['name','age','sex'] # 增加一行数据,列表里的元素按照顺序对应表头 table.add_row(['Jruing','23','男']) table.add_row(['Jruing','24','男']) # 增加一列,第一个参数是字段,第二个是每行数据新增字段的值 table.add_column('addr',['bj','sx']) print(table) 效果 常用的几个方法 table.get_html

hive内部表、外部表

强颜欢笑 提交于 2020-04-06 12:44:03
hive内部表、外部表区别自不用说,可实际用的时候还是要小心。 Hive的数据分为表数据和元数据,表数据是Hive中表格(table)具有的数据;而元数据是用来 存储 表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。下面分别来介绍。    一、Hive的数据存储   在 让你真正明白什么是hive 博文中我们提到Hive是基于Hadoop分布式文件系统的,它的数据存储在Hadoop分布式文件系统中。Hive本身是没有专门的数据存储格式,也没有为数据建立索引,只需要在创建表的时候告诉Hive数据中的列分隔符和行分隔符,Hive就可以解析数据。所以往Hive表里面导入数据只是简单的将数据移动到表所在的目录中(如果数据是在HDFS上;但如果数据是在本地文件系统中,那么是将数据复制到表所在的目录中)。   Hive中主要包含以下几种数据模型:Table(表),External Table(外部表),Partition(分区),Bucket(桶)(本博客会专门写几篇博文来介绍分区和桶)。   1、表:Hive中的表和关系型 数据库 中的表在概念上很类似,每个表在HDFS中都有相应的目录用来存储表的数据,这个目录可以通过${HIVE_HOME}/conf/hive-site.xml配置文件中的hive.metastore.warehouse.dir属性来配置

hive内部表&外部表介绍

泪湿孤枕 提交于 2020-04-06 12:43:40
未被external修饰的是内部表(managed table),被external修饰的为外部表(external table); 区别: 内部表数据由Hive自身管理,外部表数据由HDFS管理; 内部表数据存储的位置是hive.metastore.warehouse.dir(默认:/user/hive/warehouse),外部表数据的存储位置由自己制定; 删除内部表会直接删除元数据(metadata)及存储数据;删除外部表仅仅会删除元数据,HDFS上的文件并不会被删除; 对内部表的修改会将修改直接同步给元数据,而对外部表的表结构和分区进行修改,则需要修复(MSCK REPAIR TABLE table_name;) 如下,进行试验进行理解 试验理解 创建内部表t1 create table t1( id int ,name string ,hobby array<string> ,add map<String,string> ) row format delimited fields terminated by ',' collection items terminated by '-' map keys terminated by ':' ; 2. 查看表的描述:desc t1; 装载数据(t1) 注:一般很少用insert (不是insert overwrite)语句

hive表与外部表的区别

╄→гoц情女王★ 提交于 2020-04-06 12:42:54
相信很多用户都用过关系型数据库,我们可以在关系型数据库里面创建表(create table),这里要讨论的表和关系型数据库中的表在概念上很类似。我们可以用下面的语句在Hive里面创建一个表: hive> create table wyp(id int, > name string, > age int, > tele string) > ROW FORMAT DELIMITED > FIELDS TERMINATED BY '\t' > STORED AS TEXTFILE; OK Time taken: 0.759 seconds 复制代码 这样我们就在Hive里面创建了一张普通的表,现在我们给这个表导入数据: hive> load data local inpath '/home/wyp/data/wyp.txt' into table wyp; Copying data from file:/home/wyp/data/wyp.txt Copying file: file:/home/hdfs/wyp.txt Loading data to table default.wyp Table default.wyp stats: [num_partitions: 0, num_files: 1, num_rows: 0, total_size: 67, raw_data_size

hive内部表与外部表区别

时光毁灭记忆、已成空白 提交于 2020-04-06 12:42:37
1.创建内部表与外部表的区别是什么? 2.external关键字的作用是什么? 3.外部表与内部表的区别是什么? 4.删除表的时候,内部表与外部表有什么区别? 5.load data local inpath '/home/wyp/data/wyp.txt' into table wyp;的过程是什么样子的? 6.磁盘,hdfs,hive表他们之间的过程是什么样子的?   相信很多用户都用过关系型数据库,我们可以在关系型数据库里面创建表(create table),这里要讨论的表和关系型数据库中的表在概念上很类似。我们可以用下面的语句在Hive里面创建一个表: hive> create table wyp(id int, > name string, > age int, > tele string) > ROW FORMAT DELIMITED > FIELDS TERMINATED BY '\t' > STORED AS TEXTFILE; OK Time taken: 0.759 seconds 复制代码 这样我们就在Hive里面创建了一张普通的表,现在我们给这个表导入数据: hive> load data local inpath '/home/wyp/data/wyp.txt' into table wyp; Copying data from file:/home