Go Up

linux练习命令

坚强是说给别人听的谎言 提交于 2021-01-02 12:09:16
任务一:按要求完成以下操作 1)显示日期格式 2)在/tmp/下新建目录test ,并指定权限664 3)显示环境变量path,但将/root加入到$PATH中 4)用cat显示/etc/passwd,并打印出行号 5)显示/etc/passwd文件中的5-10行 6)显示出/home/目录下所有文件的ctime时间 7)显示出/home /目录下所有文件的atime时间 8)显示出/home /目录下所有文件夹的mtime时间 9)查找/home /目录下一天前新增的目录或文件 10) 查找/etc/目录下二十四小时更动过的目录或文件 11) 查找/etc/目录下比/etc/passwd日期新的文件或目录 12) 查找/home目录下所有test用户的文件或目录 13) 查找/home下档案属性为f的文件 14) 查找/目录下所有的特殊位文件。 15) 查找/目录下所有的特殊位文件,并显示详细信息 16) 查找/目录下所有大于2M的文件 17) 查询/etc目录下一个小时之前更改的文件,不包括目录 18) copy文件/etc/passwd到/tmp目录下,保持时间戳 19) 查看/tmp/目录的使用空间 20)设置linux一分钟后关机 21)设置linux一分钟后重启动 22)进入/home目录,使用pwd显示当前目录 23)在/ 下建立目录worker

Codeforces 1099F

孤人 提交于 2020-12-28 08:04:56
题目链接: https://codeforces.com/problemset/problem/1099/F Mitya and Vasya are playing an interesting game. They have a rooted tree with $n$ vertices, and the vertices are indexed from $1$ to $n$. The root has index $1$. Every other vertex $i≥2$ has its parent $p_i$, and vertex $i$ is called a child of vertex $p_i$. There are some cookies in every vertex of the tree: there are $x_i$ cookies in vertex $i$. It takes exactly $t_i$ time for Mitya to eat one cookie in vertex $i$. There is also a chip, which is initially located in the root of the tree, and it takes $l_i$ time to move the chip along the

[源码解析] GroupReduce,GroupCombine 和 Flink SQL group by

本小妞迷上赌 提交于 2020-08-17 08:55:10
[源码解析] GroupReduce,GroupCombine和Flink SQL group by 目录 [源码解析] GroupReduce,GroupCombine和Flink SQL group by 0x00 摘要 0x01 缘由 0x02 概念 2.1 GroupReduce 2.2 GroupCombine 2.3 例子 0x03 代码 0x04 Flink SQL内部翻译 0x05 JobGraph 0x06 Runtime 6.1 ChainedFlatMapDriver 6.2 GroupReduceCombineDriver 6.3 GroupReduceDriver & ChainedFlatMapDriver 0x07 总结 0x08 参考 0x00 摘要 本文从源码和实例入手,为大家解析 Flink 中 GroupReduce 和 GroupCombine 的用途。也涉及到了 Flink SQL group by 的内部实现。 0x01 缘由 在前文 [源码解析] Flink的Groupby和reduce究竟做了什么 中,我们剖析了Group和reduce都做了些什么,也对combine有了一些了解。但是总感觉意犹未尽,因为在Flink还提出了若干新算子,比如GroupReduce和GroupCombine。这几个算子不搞定,总觉得如鲠在喉

树的应用——二叉堆实现优先队列

柔情痞子 提交于 2020-08-12 04:54:04
之前的队列(queue)都是先进先出的数据结构。然而在优先队列中,在队列里的数据都有一个优先级标签。 在优先级队列中,队列的项的逻辑顺序由他们的优先级决定。最高优先级在队列的前面,最低优先级在项的后面。 实现优先级队列的经典方法是使用成为二叉堆的数据结构,它可以在O(log(n))时间中排队和取出队列 什么是二叉堆 二叉堆(binary heap),这个堆(heap)在结构上是一棵完全二叉树,在实现上使用的数组list,采用数组的index值表示父结点及子结点。二叉堆有两个常见的变体:最小堆(其中最小的键总是在前面)和最大堆。 由于二叉堆要是一个完全二叉树,所以为了保证log(n)的时间量,必须保证树是平衡的。 如图是一个二叉堆,堆的结构类似树,实现方式由list实现。list的第一个元素是0,至于为什么要这样呢?因为树上的每一个元素都有对应的index,要满足左右结点分别是 2*p & 2*p+1 ,如果索引index是从0开始,则不满足。 二叉堆的属性是一个很重要的东西,二叉堆的所有操作基本都基于它的属性:每个结点的父结点都比它本身要小 (最小堆) 二叉堆的构造 class BinaryHeap: def __init__(self): self.__heap_list = [0] self.__size = 0 二叉堆的插入 在二叉堆中插入一个项,过程是

【免费下载】5G for the connected World

让人想犯罪 __ 提交于 2020-08-11 23:25:47
今天周日,趁着小朋友还没下课,再发篇下载贴。 这本书曾被3gpp官网首页推荐( https://www.3gpp.org/news-events/2088-5g-for-the-connected-world ),显然很不错。 如果想免费下载这本书,可以在微信公众号中搜索并添加:c13915999999,在后台回复 Devaki ,便会获得下载链接。 下面的内容是3gpp推荐内容的摘选: 5G for the connected World November 13, 2019 The recently published book ‘5G for the connected World’, edited by Devaki Chandramouli, Rainer Liebhart and Juho Pirskanen explains 5G in detail, focusing on 3GPP Release 15 content and how it can be used to enable new services beyond the ones specified for LTE. In this edited extract Devaki Chandramouli and Rainer Liebhart look at how URLLC makes the

Rust源码分析:channel's upgrade

谁说我不能喝 提交于 2020-07-27 21:56:58
https://zhuanlan.zhihu.com/p/50101525 std::sync::mpsc::channel 本文分析Rust标准库中的channel,channel(通道)作为线程间通信的一种方式被广泛使用。 Rust提供了多生产者单消费者的channel。我们重点关注多个生产者的情况。 它的实现方式非常有趣。我把它分为通道升级跟并发队列两部分。 本文描述通道升级 对于一个channel()调用,我们得到的(sender, receiver)是oneshot的,这一点从源码可以得到暗示: #[stable(feature = "rust1" , since = "1.0.0" )] pub fn channel < T > () -> ( Sender < T > , Receiver < T > ) { let a = Arc:: new ( oneshot:: Packet:: new ()); ( Sender:: new ( Flavor:: Oneshot ( a . clone ())), Receiver:: new ( Flavor:: Oneshot ( a ))) } 这里至少有四个结构: oneshot::Packet:Packet,真正存放数据的地方。此处是单个数据(其他类型可能使用队列) Flavor::Oneshot。 Sender

sql语句中select、 from、 where、 group by 、having、 order by的执行顺序分析

跟風遠走 提交于 2020-07-23 22:34:07
词语分析: SELECT 语句用于从表中选取数据。结果被存储在一个结果表中(称为结果集)。 from 代表具体的数据源,具体表。 where 设置条件从表中选取数据 GROUP BY 语句用于结合合计函数,根据一个或多个列对结果集进行分组。 SELECT Customer1, SUM (OrderPrice1) FROM Orders GROUP BY Customer1 HAVING 关键字无法与合计函数一起使用。 SELECT Customer, SUM (OrderPrice) FROM Orders GROUP BY Customer HAVING SUM (OrderPrice) <1 000 前面从from(表)where(按条件取出数据)goup by(再对取出的数据进行分组)having(分组之后再过滤得到最新数据集)select(按照设置列从数据集里面取出数据)order by(对取出的数据进行排序) 所以执行顺序:from---where--group by---having---select---order by 来源: oschina 链接: https://my.oschina.net/u/4344814/blog/4371279

Oracle 函数 ROLLUP,CUBE

好久不见. 提交于 2020-04-27 22:48:04
创建测试表 group_test create table group_test (group_id int, job varchar2(10), name varchar2(10), salary int); 初始化数据 insert into group_test values (10,'Coding', 'Bruce',1000); insert into group_test values (10,'Programmer','Clair',1000); insert into group_test values (10,'Architect', 'Gideon',1000); insert into group_test values (10,'Director', 'Hill',1000); insert into group_test values (20,'Coding', 'Jason',2000); insert into group_test values (20,'Programmer','Joey',2000); insert into group_test values (20,'Architect', 'Martin',2000); insert into group_test values (20,'Director', 'Michael',2000)

使用OPCAutomation实现对opc数据的访问

我们两清 提交于 2019-12-10 07:15:56
最近项目中需要 C#通过OPC方式获取数据,折腾了一段时间,第三方提供OPCServer虚拟环境,我创建C#客户端。 服务端是力控电子系统,第三方软件,不多做赘述,本文主要讲解OPC客户端的搭建和OPC连接步骤。 调用OPCAutomation类访问OPCServer端,并进行可控制读取间隔的OPC数据读取、存储工作。 本文主要介绍OPCAutomation类的使用。 简单流程如下: 1.创建OPC server的连接 2.创建OPC组对象并初始化设置 3.获取组的OPCItems对象,为读取数据做准备 4.opcltem的操作 5.退出程序的资源释放 创建连接很简单,需要指定OPCServer所在的服务器(内网可以指定IP或者计算机名),指定OPC服务的名称(同一服务器可能运行多个OPC服务以适配不同的下位机) //通过timer获取OPCServer端数据 void TimerTick(object sender, EventArgs e) { //连接OPCServer KepServer.Connect(remoteServerName, remoteServerIP); if (KepServer.ServerState == (int)OPCServerState.OPCRunning) { label1.Text = "已连接到-" + KepServer