records

mysql change 和 modify的区别

半腔热情 提交于 2020-08-10 23:45:21
使用modify修改字段报错如下: mysql> alter table student modify name sname char(16); ERROR 1064 (42000): You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near 'sname char(16)' at line 1 经亲测modify与change的区别在于修改字段名称只能是用change,modify不能修改字段名称 在网上看到很多人说change不能修改字段的类型,实际上是都可以的,只需要注意使用change修改字段类型的时候,即使不修改字段名称但是也要把原名称写上,否则会报错 mysql> alter table student change name name varchar( 32 ) not null ; Query OK, 15 rows affected ( 0.03 sec) Records: 15 Duplicates: 0 Warnings: 0 mysql> alter table student modify sname char ( 16 ); Query OK,

如何连接(合并)数据框(内部,外部,左侧,右侧)

三世轮回 提交于 2020-08-10 05:38:56
问题: Given two data frames: 给定两个数据帧: df1 = data.frame(CustomerId = c(1:6), Product = c(rep("Toaster", 3), rep("Radio", 3))) df2 = data.frame(CustomerId = c(2, 4, 6), State = c(rep("Alabama", 2), rep("Ohio", 1))) df1 # CustomerId Product # 1 Toaster # 2 Toaster # 3 Toaster # 4 Radio # 5 Radio # 6 Radio df2 # CustomerId State # 2 Alabama # 4 Alabama # 6 Ohio How can I do database style, ie, sql style, joins ? 如何进行数据库样式(即 sql样式)的联接 ? That is, how do I get: 也就是说,我如何获得: An inner join of df1 and df2 : df1 和 df2 的 内部 df2 : Return only the rows in which the left table have matching keys in the right

第06期:梳理 MySQL 字符集的相关概念

大城市里の小女人 提交于 2020-08-09 20:28:06
此篇介绍 MySQL 字符集、排序规则、相关的元数据、参数等设置以及使用情况。 概念 字符集的内容包含: 字符集 (character set)和 排序规则 (collation rule) 每种字符集可对应一到多个排序规则,每种排序规则对应一种字符集 字符集是一套字符与一套编码的映射集合,像这样: 字符 编码 A 0 B 1 … … 排序规则是字符集内用来比较每个字符的一套规则,也就是字符的排序方式 比如要比较字符 A 和 B 的大小,最简单直观的方法就是对比他们对应的编码。显然编码 0 < 1,这种规则下 A < B。那么类似这样的规则集合就是排序规则。单字节字符编码如此,多字节的编码排序也以此类推。 那么接下来我来详细介绍下字符集相关的介绍以及使用场景。 一、字符编码的分类 1、 ASCII 用途:用来映射简单的单字节字符,比如大小写英文字母,阿拉伯数字,及常用的标点符、运算符、控制字符等。 编码范围: U+0000 - U+007F 注意:对于用这类字符的场景够用了,但是却无法表达比如汉字,日文等编码。 2、UNICODE 用途:用来映射包含 ASCII 以内的其他的所有字符。 编码范围: U+0000 - U+10FFFF 注意:ASCII 是 UNICODE 的子集,ASCII 编码的字符可以无损转换为 UNICODE 编码的字符。 二、MySQL 常用字符集 1

如何在 1 s内快速创建数百G超大文件?

爷,独闯天下 提交于 2020-08-09 18:47:08
常规的创建文件方式有: touch vi(m) tee > 或 >> 但是这几种都只适合创建小的文本文件,某些情况下出于测试的需要,你需要快速创建一个超大的文件,可能要 上百G。这时候要使用上面几个命令,你可能要等一天的时间,效率非常低。 接下来介绍几种我常用的方法 1. dd dd命令,可以从标准输入或指定的文件中读取数据,拷贝至新文件。 $ dd if=/dev/zero of=big_file count=10 bs=1G 使用 time 命令,可以算出创建一个 10G的文件需要耗时多久? $ time dd if=/dev/zero of=big_file count=10 bs=1G 10+0 records in 10+0 records out 10737418240 bytes (11 GB) copied, 7.93627 s, 1.4 GB/s real 0m7.941s user 0m0.000s sys 0m7.935s 花了将近8秒的时间 $ ls -lh big_file -rw-r--r-- 1 root root 10G Jun 2 10:57 big_file 2. fallocate fallocate命令可以为文件预分配物理空间。 -l 后接空间大小,默认单位为字节。也可后跟k、m、g、t、p、e来指定单位,分别代表KB、MB、GB、TB、PB

一个茴字有三种写法——吐槽C#9.0的Records

左心房为你撑大大i 提交于 2020-08-09 15:58:05
一个茴字有三种写法——吐槽C#9.0的Records 最近是微软开了Build 2020大会,由于疫情原因,改成了在线举行,Build大会上,C#公布9.0版本。 我个人对于C#的更新向来都是喜闻乐见,乐于接受的,对于博客园上某些人天天嘲讽C#只会增加语法糖的人,我向来对他们不屑一顾,认为他们是井底之蛙。 因此我仔细看了微软发的文章Welcome to C# 9.0,准备好好观摩和学习。但当我看到Records语法时,我就隐隐感觉C#这样玩语法糖要翻车了。 后来看到知乎上的问题如何评价即将发布的 C# 9.0?,我稍加思索,愈发觉得Records语法完全是大型翻车现场,因此整理出来我认为的Records的翻车点(兼吐槽)。 首先看官方给出的Records样例 public data class Person { public string FirstName { get; init; } public string LastName { get; init; } } 第一个吐槽点:data class声明有必要吗?如果要多加一个data关键字,直接用record不好吗,如果不加关键字,为什么不用readonly class啊。 public record Person {} public readonly class Person {} 第二个吐槽点,官方给出上面的等价定义

聚簇索引和非聚簇索引实际上是什么意思?

大城市里の小女人 提交于 2020-08-09 14:43:38
问题: I have a limited exposure to DB and have only used DB as an application programmer. 我对DB的接触有限,只使用DB作为应用程序程序员。 I want to know about Clustered and Non clustered indexes . 我想了解 Clustered 和 Non clustered indexes 。 I googled and what I found was : 我搜索了一下,发现的是: A clustered index is a special type of index that reorders the way records in the table are physically stored. 聚集索引是一种特殊的索引,它重新排序表中记录的物理存储方式。 Therefore table can have only one clustered index. 因此,表只能有一个聚集索引。 The leaf nodes of a clustered index contain the data pages. 聚集索引的叶节点包含数据页。 A nonclustered index is a special type of index in which

行情收集器再升级--支持CSV格式文件导入提供自定义数据源

点点圈 提交于 2020-08-09 12:54:45
最近一个用户需要让自己的CSV格式文件作为数据源,让发明者量化交易平台的回测系统使用。发明者量化交易平台的回测系统功能众多,使用简洁高效,这样只要自己有数据,就可以进行回测了,不再局限于平台数据中心支持的交易所、品种。 设计思路 设计思路其实很简单,我们只要在之前的行情收集器基础上稍微改动即可,我们给行情收集器增加一个参数 isOnlySupportCSV 用来控制是否只使用CSV文件作为数据源提供给回测系统,再增加一个参数 filePathForCSV ,用于设置行情收集器机器人运行的服务器上放置CSV数据文件的路径。最后就是根据 isOnlySupportCSV 参数是否设置为 True 来决定使用那种数据源(1、自己收集的,2、CSV文件中的数据),这个改动主要在 Provider 类的 do_GET 函数中。 什么是CSV文件? 逗号分隔值(Comma-Separated Values,CSV,有时也称为字符分隔值,因为分隔字符也可以不是逗号),其文件以纯文本形式存储表格数据(数字和文本)。纯文本意味着该文件是一个字符序列,不含必须像二进制数字那样被解读的数据。CSV文件由任意数目的记录组成,记录间以某种换行符分隔;每条记录由字段组成,字段间的分隔符是其它字符或字符串,最常见的是逗号或制表符。通常,所有记录都有完全相同的字段序列。通常都是纯文本文件

SQL Server 2017错误日志中出现“Parallel redo is shutdown for database &apos;xxx&apos; with worker pool size [2]."浅析

こ雲淡風輕ζ 提交于 2020-08-09 12:22:07
在SQL Server 2017的错误日志中出现"Parallel redo is started for database 'xxx' with worker pool size [2]"和 “ Parallel redo is shutdown for database 'xxx' with worker pool size [2]. ” 这种信息,这意味着什么呢? 如下所示 Date 2020/5/16 11:07:38 Log SQL Server (Current - 2020/5/16 11:08:00) Source spid33s Message Parallel redo is started for database 'YourSQLDba' with worker pool size [2]. Date 2020/5/16 11:07:38 Log SQL Server (Current - 2020/5/16 11:08:00) Source spid33s Message Parallel redo is shutdown for database 'YourSQLDba' with worker pool size [2]. 其实这个要涉及 parallel redo 这个概念,官方文档有详细介绍,摘抄部分如下【详情请见参考资料】: When

Embedding Methods-细粒度文本分类,从相似度出发

此生再无相见时 提交于 2020-08-09 08:50:18
背景 实体分类是指给一个实体一个指定的标签,这在关系抽取,知识问答等任务中非常重要。一般实体分类的标签都小于20个,但是当标签之间具有层级结构,同一个实体在不同的上下文中便可能具有不同的角色。例如: Madonna starred as Breathless Mahoney in the film Dick Tracy Madonna signed with Sire Records in 1982 and released her eponymous debut album the next year. 这两句话中,第一句的Madonna因为主演了电影,她的分类应该是 actress ,而下一句Maddona推出了新专辑,这里她的分类应该是 musician 。 对于细粒度实体分类来说,一个最大的困难是标注文本的收集,因为在标注的时候不考虑上下文的话可能会如上文的例子一样,会引入很多噪音。实际上一个优秀的细粒度实体分类模型应该是可以处理这些噪音并且在训练过程中发现label之间的关系的。 针对这些问题,本文使用ranking loss来解决这些问题,下面我们来看看文中是怎么解决的吧 模型 1. 学习目标 文中为了平衡细粒度标签之间的关系,将输入的文本信息和标签信息全都映射到一个低维空间 中,其中H表示embedding的维度。映射方法如下图所示

Kafka

走远了吗. 提交于 2020-08-08 19:18:23
Kafka 构建实时数据管线,和流式应用。 水平扩展、容错、奇快无比。 Kafka® is used for building real-time data pipelines and streaming apps. It is horizontally scalable, fault-tolerant, wicked fast, and runs in production in thousands of companies. 分布式流处理平台。 Apache Kafka® is a distributed streaming platform . What exactly does that mean? 流处理平台三大能力: - 对记录流的发布订阅 - 存储记录流,以容错和持久形式 - 处理记录流 A streaming platform has three key capabilities: Publish and subscribe to streams of records, similar to a message queue or enterprise messaging system. Store streams of records in a fault-tolerant durable way. Process streams of records as