Readable

Linux上查看文件大小的用法(转载)

六眼飞鱼酱① 提交于 2021-01-24 04:18:58
具体用法可以参考:https://blog.csdn.net/linfanhehe/article/details/78560887 当磁盘大小超过标准时会有报警提示,这时如果掌握df和du命令是非常明智的选择。 df可以查看一级文件夹大小、使用比例、档案系统及其挂入点,但对文件却无能为力。 du可以查看文件及文件夹的大小。 两者配合使用,非常有效。比如用df查看哪个一级目录过大,然后用df查看文件夹或文件的大小,如此便可迅速确定症结。 下面分别简要介绍 df命令可以显示目前所有文件系统的可用空间及使用情形 ,请看下列这个例子: 以下是代码片段: [yayug@yayu ~]$ df -h Filesystem Size Used Avail Use% Mounted on /dev/sda1 3.9G 300M 3.4G 8% / /dev/sda7 100G 188M 95G 1% /data0 /dev/sdb1 133G 80G 47G 64% /data1 /dev/sda6 7.8G 218M 7.2G 3% /var /dev/sda5 7.8G 166M 7.2G 3% /tmp /dev/sda3 9.7G 2.5G 6.8G 27% /usr tmpfs 2.0G 0 2.0G 0% /dev/shm 参数 -h 表示使用「Human-readable」的输出

Node中的流

巧了我就是萌 提交于 2021-01-17 14:50:57
一.流的概念 stream是数据集合,与数组、字符串差不多。但stream不一次性访问全部数据,而是一部分一部分发送/接收(chunk式的),所以不必占用那么大块内存,尤其适用于处理大量(外部)数据的场景 stream具有管道(pipeline)特性,例如: const grep = ... // A stream for the grep output const wc = ... // A stream for the wc input grep.pipe(wc) 很多原生模块都是基于stream的,包括进程的stdin/stdout/stderr: 例如常见的场景: const fs = require('fs'); const server = require('http').createServer(); server.on('request', (req, res) => { const src = fs.createReadStream('./big.file'); src.pipe(res); }); server.listen(8000); 其中pipe方法把可读流的输出(数据源)作为可写流的输入(目标),直接把读文件的输出流作为输入连接到HTTP响应的输出流,从而避免把整个文件读入内存 P.S.甚至日常使用的console.log()内部实现也是stream 二

为什么 Redis 单线程能达到百万+QPS?

我怕爱的太早我们不能终老 提交于 2021-01-10 11:01:40
作者:在江湖中coding https://juejin.im/post/5e6097846fb9a07c9f3fe744 性能测试报告 查看了下阿里 Redis 的性能测试报告如下,能够达到数十万、百万级别的 QPS (暂时忽略阿里对 Redis 所做的优化),我们从 Redis 的设计和实现来分析一下 Redis 是怎么做的。 Redis的设计与实现 其实 Redis 主要是通过三个方面来满足这样高效吞吐量的性能需求 高效的数据结构 多路复用 IO 模型 事件机制 1、高效的数据结构 Redis 支持的几种高效的数据结构 string(字符串)、hash(哈希)、list(列表)、set(集合)、zset(有序集合) 以上几种对外暴露的数据结构它们的底层编码方式都是做了不同的优化的,不细说了,不是本文重点。 2、多路复用 IO 模型 假设某一时刻与 Redis 服务器建立了 1 万个长连接,对于阻塞式 IO 的做法就是,对每一条连接都建立一个线程来处理,那么就需要 1万个线程,同时根据我们的经验对于 IO 密集型的操作我们一般设置,线程数 = 2 * CPU 数量 + 1,对于 CPU 密集型的操作一般设置线程 = CPU 数量 + 1。 当然各种书籍或者网上也有一个详细的计算公式可以算出更加合适准确的线程数量,但是得到的结果往往是一个比较小的值,像阻塞式 IO

ASIN文案编写技巧

北战南征 提交于 2021-01-04 22:22:13
ASIN 页面是客户了解商品的重要渠道,对买家是否购买占着重大作用。它包括了图片、价格、评论、文案等。这里我说们说下文案怎么编辑: Searchable 是为了 让平台更好地检索到你的产品,从而 展示 给目标客户,而 Readable 则 主要是吸引 客户购买。 一、确认主要关键词列表 首先,我们需要确认 文案内容 。从包含的搜索,即从我们通常所说的站点内 SEO 的角度来看,必须涵盖与产品搜索相关的关键字。 然后,我们还需要知道客户在购买商品时需要从中获取哪些信息。这需要进行市场研究 , 通过对 BSR 产品文案中相同类型信息的频率分析,我们可以找出哪些信息很重要,然后将其与我们自己的产品信息进行匹配。 二、 按词的语法属性分类 我们知道可读性与习惯性语言表达是分不开的。 比如 美国的站点,我们返回基本的英语语法,标题通常是名词短语,由中心名词,前置修饰语和后面的其他补充词组成。 您会看到中心词是名词,标题通常是产品的名称。修饰语是形容词和名词,其后是介词短语,从句,形容词,介词等。如果很难记住,请记住后者通常是可以用来与介词连词(如 on , of) 。 三、 按照语法规则重新组合 标题的重要性所涵盖的逻辑上流畅,清晰的语义和关键字基本上可以很快生成。复制的其他部分,五个卖点,产品描述部分,您也可以使用此思路一起操作,一次覆盖关键字,只注意后面的部分是比较完整的句子

maven国内镜像(国内oschina的maven服务器关了)

谁说胖子不能爱 提交于 2020-12-19 01:58:30
Maven是官方的库在国外,连下载速度很慢。国内oschina的maven服务器很早之前就关了。今天发现阿里云的一个中央仓库,亲测可用。 找到E:\maven\apache-maven-3.5.2\conf下的settings.xml文件,添加如下配置即可 <? xml version="1.0" encoding="UTF-8" ?> < settings xmlns ="http://maven.apache.org/SETTINGS/1.0.0" xmlns:xsi ="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation ="http://maven.apache.org/SETTINGS/1.0.0 http://maven.apache.org/xsd/settings-1.0.0.xsd" > < mirrors > <!-- 阿里云仓库 --> < mirror > < id > alimaven </ id > < mirrorOf > central </ mirrorOf > < name > aliyun maven </ name > < url > http://maven.aliyun.com/nexus/content/repositories/central/ </ url >

Spring源码解析之BeanDefinition

你。 提交于 2020-12-18 03:32:43
BeanDefinition接口继承了接口AttributeAccessor,BeanMetadataElement。 接口AttributeAccessor: String[] attributeNames () Return the names of all attributes. Object getAttribute (String name) Get the value of the attribute identified by name . boolean hasAttribute (String name) Return true if the attribute identified by name exists. Object removeAttribute (String name) Remove the attribute identified by name and return its value. void setAttribute (String name, Object value) Set the attribute defined by name to the supplied value .    接口BeanDefinition:  BeanDefinition描述了一个bean实例,它具有属性值,构造函数参数值以及具体实现提供的更多信息

SQL Server 2016 Failover Cluster + ALwaysOn

时光毁灭记忆、已成空白 提交于 2020-12-06 06:09:01
SQL Server 2016 Failover Cluster + ALwaysOn 环境的搭建 近期公司为了提高服务的可用性,就想到了部署AlwaysOn,之前的环境只是部署了SQL Server Failover Cluster,所以决定将云端放一台SQL Server来配置ALwaysOn,具体思路就是在本地的SQL Server Failover Cluster中再增加一个节点,然后将新家的节点放到Azure云端,然后在这两个实例之间配置AlwaysOn,部署后,有个问题就是集群之间无法自动故障转移,需要手动干预才可以具体后期我们再做详细介绍,废话就不多说了,开始实践配置; 环境介绍: Hostname:DC1 Role:DC IP:192.168.5.20 Domain:ixmsoft.com Hostname:ISCSI IP:192.168.5.38 Role:Storage Hostname:S1 Role:SQL Server 2016 IP:192.168.5.41 Hostname:S2 Role:SQL Server 2016 IP:192.168.5.42 Hostname:AO1 Role:SQL Server 2016 IP:192.168.5.43 SQL-CLUSTER 192.168.5.46 SQLCLUSTER 192.168.5.47

python如何安装pickle

让人想犯罪 __ 提交于 2020-11-25 11:54:50
pickle是python语言的一个标准模块,安装python后已包含pickle库,不需要单独再安装。 pickle模块实现了基本的数据序列化和反序列化。 (推荐学习: Python视频教程 ) 通过pickle模块的序列化操作我们能够将程序中运行的对象信息保存到文件中去,永久存储;通过pickle模块的反序列化操作,我们能够从文件中创建上一次程序保存的对象。 在官方的介绍中,序列化操作的英文描述有好几个单词,如”serializing”, “pickling”, “serialization”, “marshalling” 或者”flattening”等,它们都代表的是序列化的意思。相应的,反序列化操作的英文单词也有好多个,如”de-serializing”, “unpickling”, “deserailization”等。为了避免混淆,一般用”pickling”/“unpickling”, 或者”serialization”/“deserailization”。 pickle模块是以二进制的形式序列化后保存到文件中(保存文件的后缀为”.pkl”),不能直接打开进行预览。而python的另一个序列化标准模块json,则是human-readable的,可以直接打开查看(例如在notepad++中查看)。 pickle模块有两类主要的接口,即序列化和反序列化。

Redis面试集锦(一)

随声附和 提交于 2020-10-25 01:59:12
「持续更新中,欢迎关注...」 1. 什么是Redis Redis 是互联网技术领域使用最为广泛的存储中间件,它是 Remote Dictionary Service 的首字母缩写,也就是远程字典服务。Redis 以其超高的性能、完美的文档、简洁易懂的源码和丰富的客户端库支持在开源中间件领域广受好评。对 Redis 的了解和应用实践已成为当下中高级后端开发者绕不开的必备技能。 2. Redis可以做什么 数据缓存 消息队列 分布式锁 会话缓存 时效性数据 访问频率 计数器 社交列表 记录用户判定信息 交集、并集和差集 热门列表与排行榜 最新动态 大数据去重 3. Redis的优点 速度快 :内存存储,查找和操作的时间复杂度O(1)。 支持丰富的数据类型 :提供了String、List、Hash、Set、Sorted Set 5种基础数据结构,并扩展了Bitmap、HyperLogLog、GEO等高级数据结构。 丰富的特性 :订阅发布Pub/Sub、Key过期策略、事务、计数、Stream等。 持久化存储 :提供了RDB和AOF两种数据的持久化存储方案,解决宕机数据丢失的问题。 高可用 :提供Redis Sentinel高可用方案和Redis Cluster集群方案。 4. Redis和Memcached区别 数据结构对比 :Redis支持更复杂的数据结构,能支持更丰富的数据操作

OpenLDAP 2.4.44 安装部署避坑指南

时光总嘲笑我的痴心妄想 提交于 2020-10-24 04:43:10
写在前面: 有关openLDAP的部署文档在网上随意能找到很多,但是最近用到才发现网上的教程多数是旧版的用法,例如"/etc/openldap/slapd.conf “早已弃用,更有甚者直接修改/etc/openldap/slapd.d/下的文件,打开的时候上面明确写着不能修改此文件,那是多大的勇气能写成文档出来分享呢? 通过参考官方文档并且借鉴了两位前辈的文档,我整理出来如下步骤,并经过验证 一、环境准备 1. 操作系统: CentOS 7.x 2. 关闭防火墙、selinux 3. yum源(略) 忘了用不用依赖epel-release 自己试试 二、OpenLDAP服务安装 1. 服务安装 yum install -y openldap openldap-servers openldap-clients openldap-devel 2. 生成OpenLDAP管理密码 [root@localhost ~]# slappasswd New password: //此处输入密码 Re-enter new password: //再次密码 {SSHA}CrdqT5EAh8H2y2SorEUbuxP3R5eOggjb 记录好生成的密码,后面用得到 3. 配置OpenLDAP OpenLDAP 2.3之后的版本取消了/etc/openldap/slapd.conf的配置方式