jobs

PowerShell quickly Ping Subnet with Jobs

佐手、 提交于 2020-03-14 05:20:39
问题 The following function will ping my subnet with PingRange 1 254 to check IP's: function PingRange ($from, $to) { $from..$to | % {"192.168.0.$($_): $(Test-Connection -BufferSize 2 -TTL 5 -ComputerName 192.168.0.$($_ ) -quiet -count 1)"} } However, this is slow, so I was wondering if it's possible to ping them all concurrently, then collect the results. I guess that this would mean: Using Start-Job on each Test-Connection (which I can do, that part is easy). Waiting for all to complete.

PowerShell quickly Ping Subnet with Jobs

萝らか妹 提交于 2020-03-14 05:19:03
问题 The following function will ping my subnet with PingRange 1 254 to check IP's: function PingRange ($from, $to) { $from..$to | % {"192.168.0.$($_): $(Test-Connection -BufferSize 2 -TTL 5 -ComputerName 192.168.0.$($_ ) -quiet -count 1)"} } However, this is slow, so I was wondering if it's possible to ping them all concurrently, then collect the results. I guess that this would mean: Using Start-Job on each Test-Connection (which I can do, that part is easy). Waiting for all to complete.

我在阿里做中后台开发

感情迁移 提交于 2020-03-11 14:32:23
「开发全流程在线化」近些年来热度不断攀升,比如 AWS 在 C9 的实践、开源届比较出名的 TheiaJS,到后起之秀 code-server、行业佼佼者 VS Online 等。我个人以及我们团队对于「开发流程在线化」也做了较为深入的探索实践,从开始的懵懂迷茫到现在的目标清晰。 从 WebIDE 讲起 整个集团对于 WebIDE 的建设可以说起步较晚,当业界有了 Theia-IDE 的完整解决方案、coding.net 自己 CloudStudio 的商业模式,我们还在内部建设阶段。但好的方面,我们基于 IDE 技术领域及相关工具平台在近期如雨后春笋般涌现: Studio、 IDE、K * 以及更广义的可视化搭建设计器等。 我们团队在 18 年调研过后决定基于 Ds 的 **Studio 来进行上层封装满足业务需求,后面由于种种原因不再适合放弃了。 19 年中,基于开源的 code-server ) 和云原生 Kubernetes 的加持,我们自己打造了一款 YunIDE,由于需要花费大量的精力去调度运维 IDE 底层,这对于一个业务团队来说也是很难变现的,在第一版本迭代完成之后也选择迁移了。 最后我们基于 * *IDE 并结合 XCloud 平台、 Dawn 工具 、云查询,打造了更加垂直易用的在线开发工具,打通了整个 I2P(Init to Publish)在线开发流程

Linux查找进程方法以及杀死进程

蹲街弑〆低调 提交于 2020-03-08 16:55:34
Linux查找进程方法以及杀死进程 一、ps 命令根据名称查找进程 参数: -A :所有的进程均显示出来,与 -e 具有同样的效用; -a : 显示现行终端机下的所有进程,包括其他用户的进程; -u :以用户为主的进程状态 ; x :通常与 a 这个参数一起使用,可列出较完整信息。 输出格式规划: l :较长、较详细的将该PID 的的信息列出; j :工作的格式 (jobs format) -f :做一个更为完整的输出。 示例: [root@localhost ~]# ps -ef|grep tomcat 8724 ? Sl 0:44 /usr/lib/jvm/java-8-openjdk-amd64/bin/java -Djava.util.logging.config.file=/opt/environment/apache-tomcat-7.0.100/conf/logging.properties -Djava.util.logging.manager=org.apache.juli.ClassLoaderLogManager -Djdk.tls.ephemeralDHKeySize=2048 -Dorg.apache.catalina.security.SecurityListener.UMASK=0027 -Dignore.endorsed.dirs=

Elasticsearch聚合的作用范围

Deadly 提交于 2020-03-03 10:59:09
测试数据 index 结构 PUT /employees/ { "mappings" : { "properties" : { "age" : { "type" : "integer" }, "gender" : { "type" : "keyword" }, "job" : { "type" : "text", "fields" : { "keyword" : { "type" : "keyword", "ignore_above" : 50 } } }, "name" : { "type" : "keyword" }, "salary" : { "type" : "integer" } } } } 插入20条数据 PUT /employees/_bulk { "index" : { "_id" : "1" } } { "name" : "Emma","age":32,"job":"Product Manager","gender":"female","salary":35000 } { "index" : { "_id" : "2" } } { "name" : "Underwood","age":41,"job":"Dev Manager","gender":"male","salary": 50000} { "index" : { "_id" : "3" } } {

Kubernetes 弹性伸缩全场景解读(五)

回眸只為那壹抹淺笑 提交于 2020-03-01 17:12:25
作者| 阿里云容器技术专家刘中巍(莫源) 导读 :Kubernetes弹性伸缩系列文章为读者一一解析了各个弹性伸缩组件的相关原理和用法。本篇文章中,阿里云容器技术专家莫源将为你带来定时伸缩组件 kubernetes-cronhpa-controller 的相关介绍与具体操作,目前该组件已经正式开源,欢迎大家一起交流探讨。 前言 容器技术的发展让软件交付和运维变得更加标准化、轻量化、自动化。这使得动态调整负载的容量变成一件非常简单的事情。在 Kubernetes 中,通常只需要修改对应的 replicas 数目即可完成。当负载的容量调整变得如此简单后,我们再回过头来看下应用的资源画像。 对于大部分互联网的在线应用而言,负载的峰谷分布是存在一定规律的。例如下图是一个典型 web 应用的负载曲线。从每天早上 8 点开始,负载开始飙高,在中午 12 点到 14 点之间,负载会回落;14 点到 18 点会迎来第二个高峰;在 18 点之后负载会逐渐回落到最低点。 资源的波峰和波谷之间相差 3~4 倍左右的容量,低负载的时间会维持 8 个小时左右。如果使用纯静态的容量规划方式进行应用管理与部署,我们可以计算得出资源浪费比为 25% (计算方式: 1 - (1 8+4 16)/4 24 = 0.25 )。而当波峰和波谷之间的差别到达 10 倍的时候,资源浪费比就会飙升至 57% (计算方式: 1

日常记录-oracle建立定时计划,调用存储过程

流过昼夜 提交于 2020-02-28 04:15:18
日常记录-oracle建立定时计划,调用存储过程 前言 oracle 数据库有一个表,数据量50亿多,现在需要对表进行全量的 update 操作,因为全表的数据量过大,所以无法直接update,最后商量采用定时计划调用存储过程,对表数据分块,进行update操作。 建立存储过程 我这边需要在存储过程定义两个变量,一个进行记录上次操作的值,另一个进行加恒值,使 update 操作的是一个区间的所有的数据。并且每次操作完毕,记录上次的操作值,下次定时计划调用的时候,在读取出来,然后相加恒值,继续update。 打开plsql,选择Procedures,进行新建。 CREATE OR REPLACE procedure update_gps is ROWNUM_BEGIN NUMBER(35); ROWNUM_END NUMBER(35); begin SELECT NUMTEST INTO ROWNUM_BEGIN from TEST WHERE ROWNUM = 1; ROWNUM_END := ROWNUM_BEGIN+10000; dbms_output.put_line('ROWNUM_END = ' || ROWNUM_END); UPDATE T_PLT_VEHICLE_LOCATION SET LON = REGEXP_REPLACE ( REGEXP_REPLACE (

sklearn常用的API参数解析:sklearn.linear_model.LinearRegression

六眼飞鱼酱① 提交于 2020-02-26 23:40:31
sklearn.linear_model.LinearRegression 调用 sklearn.linear_model.LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=None) Parameters fit_intercept 释义:是否计算该模型的截距。 设置:bool型,可选,默认True,如果使用中心化的数据,可以考虑设置为False,不考虑截距。 normalize 释义:是否对数据进行标准化处理 设置:bool型,可选,默认False,建议将标准化的工作放在训练模型之前,通过设置sklearn.preprocessing.StandardScaler来实现,而在此处设置为false 当fit_intercept设置为false的时候,这个参数会被自动忽略。 如果为True,回归器会标准化输入参数:减去平均值,并且除以相应的二范数 copy_X 释义:是否对X复制 设置:bool型、可选、默认True,如为false,则即经过中心化,标准化后,把新数据覆盖到原数据上 n_jobs 释义:计算时设置的任务个数,这一参数的对于目标个数>1(n_targets>1)且足够大规模的问题有加速作用 设置:int or None, optional, 默认None,如果选择

技术分享 | 从库 MTS 多线程并行回放(一)

巧了我就是萌 提交于 2020-02-26 06:03:32
作者:高鹏(八怪) 本节包含分发调用流程请参考链接: https://www.jianshu.com/p/8706d7422d89 一、综述 与单 SQL 线程的回放不同,MTS 包含多个工作线程,原有的 SQL 线程蜕变为协调线程。SQL 协调线程同时还承担了检查点的工作。我们知道并行回放的方式有两种,包含 LOGICAL_CLOCK 和 DATABASE,体现在判定哪些事物能够并行回放的规则不同。实际上源码对应两个不同的类: Mts_submode_logical_clock Mts_submode_database 这里只准备讨论基于 LOGICAL_CLOCK 的并发方式,而不会讨论老的基于 DATABASE 的方式,下面是我设置的参数: slave_parallel_type:LOGICAL_CLOCK slave_parallel_workers :4 注意 slave_parallel_workers 设置的是工作线程的个数,且不包协调线程,因此如果不想使用 MTS 应该将这个参数设置为 0,然后 ‘stop slave;start slave’ 才能生效。因为工作线程在启动的时候已经初始化完毕了。 因为我们知道在 5.7 中即便不开启 GTID 也包含的匿名的 GTID Event,它携带了 last commit 和 seq number,因此即便关闭 GTID

Java “Printer is not accepting jobs” old Brother printers

白昼怎懂夜的黑 提交于 2020-02-04 04:19:34
问题 I have client which has a problem with printing from JAVA applications, using old Brother printers. The exception he gets is "Printer is not accepting jobs". Other applications (not java applications) manage to print using these printers. He switched to a new printer (also Brother), without changing the driver and then it worked. The idea is that he cannot change all the printers, also he does not want to reinstall all of them, as he has a network of hundreds of computers and printers. I have