bytes

python模块之subprocess模块, struct模块

China☆狼群 提交于 2020-02-29 15:04:13
subprocess import subprocess ''' sh-3.2# ls /Users/egon/Desktop |grep txt$ mysql.txt tt.txt 事物.txt ''' res1=subprocess.Popen('ls /Users/jieli/Desktop',shell=True,stdout=subprocess.PIPE) res=subprocess.Popen('grep txt$',shell=True,stdin=res1.stdout, stdout=subprocess.PIPE) print(res.stdout.read().decode('utf-8')) #等同于上面,但是上面的优势在于,一个数据流可以和另外一个数据流交互,可以通过爬虫得到结果然后交给grep res1=subprocess.Popen('ls /Users/jieli/Desktop |grep txt$',shell=True,stdout=subprocess.PIPE) print(res1.stdout.read().decode('utf-8')) #windows下: # dir | findstr 'test*' # dir | findstr 'txt$' import subprocess res1=subprocess

RHEL7多种方式配置ip地址

允我心安 提交于 2020-02-29 13:15:50
linux系统 配置网络有多种方式,接下来我们介绍几种供大家工作使用 图形界面配置方法 点击桌面右上角有线连接处,选中配置ens33 在此输入ip地址,掩码,DNS,网关等 然后选中启动就ok了 如此网络配置就完成了! 通过修改配置文件 通过修改ifcfg-ens33配置文件来修改配置ip [root@localhost ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33 TYPE=Ethernet PROXY_METHOD=none BROWSER_ONLY=no BOOTPROTO=dhcp DEFROUTE=yes IPV4_FAILURE_FATAL=no IPV6INIT=yes IPV6_AUTOCONF=yes IPV6_DEFROUTE=yes IPV6_FAILURE_FATAL=no IPV6_ADDR_GEN_MODE=stable-privacy NAME=ens33 UUID=96a5f670-6b15-4711-af6e-92aa92e1c66b DEVICE=ens33 ONBOOT=no ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ ~ "/etc/sysconfig/network-scripts/ifcfg-ens33" 15L, 279C 将BOOTPROTO改为static ONBOOT

ospf虚链路实验配置如下

为君一笑 提交于 2020-02-29 10:05:36
拓扑图如下: 条件: 4台路由 AR1220 ======================================================== AR-1配置: <Huawei>system-view //进系统视图 [Huawei]sysname AR-1 //修改主机名 [AR-1]int g0/0/0 //进接口g0/0/0 [AR-1-GigabitEthernet0/0/0]ip address 192.168.14.1 24 //配置IP地址和子网掩码 [AR-1-GigabitEthernet0/0/0]int g0/0/1 //切换接口 [AR-1-GigabitEthernet0/0/0]ip address 192.168.14.1 24 //配置IP地址和子网掩码 启动OSPF如下命令: [AR-1]ospf 1 router-id 1.1.1.1 //名称为1 [AR-1-ospf-1]area 0 //进入骨干区域0 [AR-1-ospf-1-area-0.0.0.0]network 192.168.14.0 0.0.0.255 //配置IP地址和反掩码 [AR-1-ospf-1-area-0.0.0.0]q //退到上一层 [AR-1-ospf-1]area 0.0.0.1 //进入非骨干区域0.0.0.1 [AR-1-ospf-1

lldb 内存读取

我是研究僧i 提交于 2020-02-29 08:42:28
所以许多时候需要调试原始的C语言指针。Xcode的调试器LLDB提供了许多有趣的调试指令,下面来看看针对内存数据的读取和修改指令。 为了更好地演示,先写一段测试代码,如下: int ints[] = { 1 , 2 , 3 }; double doubles[] = { 1.1 , 2.2 , 3.3 }; NSMutableData *data = [ NSMutableData data ]; [data appendBytes :ints length : sizeof (ints)]; [data appendBytes :doubles length : sizeof (doubles)]; char *bytes = ( char *)[data bytes ]; OK!然后在bytes变量后加入断点,运行,接着在Xcode下方输入调试指令。 首先是LLDB的内存读取指令,这个其实可以用 memory read 指令,但是这个指令写起来太繁琐了,幸好LLDB继承了GDB的 x 命令,可以快速的用简短的指令来完成多种内存读取操作。 比如显示bytes变量前三个 int 的内容: (lldb) x/3xw bytes 0x100107980: 0x00000001 0x00000002 0x00000003 这里 x 代表用16进制来显示结果, w 代表Word(16位

【组成原理】概述

梦想与她 提交于 2020-02-28 04:05:37
目录 计算机概述 数据 总线 CPU 存储器 输入/输出设备 计算机的时标系统 计算机概述 计算机的基本组成: 存储器 :     实现 记忆功能 的部件用来存放计算程序及参与运算的各种数据 运算器 :     负责数据的 算术运算和逻辑运算 即数据的加工处理 控制器 :     负责对程序规定的 控制信息 进行分析,控制并协调输入,输出操作或内存访问 输入设备 :    实现 计算程序和原始数据 的输入 输出设备 :    实现 计算结果 输出 组成的联系: 图一 图二 计算机的工作过程: 用户 打开程序 系统把程序 代码段和数据段 送入计算机的内存 控制器从存储器中 取指令 控制器分析, 执行指令 ,为取下一条指令做准备 取下一条指令 ,分析执行,如此重复操作,直至执行完程序中全部指令,便可获得全部指令 冯·诺依曼机制: 程序存储 采用 2进制 计算机系统的体系结构: 图一: 图二 数据概述 数据信息的两种基本方法: 按值 表示 :  要求在选定的进位制中正确表示出数值,包括数字符号,小数点正负号 按形 表示 :  按一定的 编码方法 表示数据 信息的存储单位: 1KB=2^10B=1024 Byte 1MB=2^20B=1024 KB 1GB=2^30B=1024 MB 1TB=2^40B=1024 GB 浮点表示法: 公式 :  N=2^(+-e)*(+-s) 说明 :

centos7 挂载新硬盘并修改mariadb的存放路径

若如初见. 提交于 2020-02-27 07:59:28
环境 CentOS7.4 mariadb 5.5 原则上yum安装的mariadb都可以 因为/var/lib/mysql 和/etc/my.cnf的路径都是一样的 之所以要进行这个操作时因为zabbix的历史问题日志把磁盘写满了,只能新加一个硬盘把mysql存放路径改一改 -----------------------------------------------------------分割线------------------------------------------------------------------------------------------------ 我这个是已经挂载好了,但是步骤都是一样的 首先添加一个硬盘, 查看 fdisk -l [root@sm-zabbix mysql]# fdisk -l Disk /dev/sda: 128.8 GB, 128849018880 bytes, 251658240 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk label type: dos

SerializeUtil 工具类

谁说我不能喝 提交于 2020-02-26 17:43:33
package com.itheima.health.utils; import java.io.*; import java.util.ArrayList; import java.util.List; public class SerializeUtil { /** * 单个序列化 * @param object * @return */ public static byte[] serialize(Object object) { if (object == null) { return null; } ObjectOutputStream oos = null; ByteArrayOutputStream baos = null; byte[] bytes = null; try { // 序列化 baos = new ByteArrayOutputStream(); oos = new ObjectOutputStream(baos); oos.writeObject(object); bytes = baos.toByteArray(); } catch (Exception e) { e.printStackTrace(); } finally { close(oos); close(baos); } return bytes; } /** * 单个反序列化 * *

交叉编译使用DHCP(dhcp-4.2.5-P1.tar.gz) 连接热点自动获取 IP 地址

…衆ロ難τιáo~ 提交于 2020-02-26 13:40:36
文章目录 实验环境 交叉编译 使用 DHCP 参考链接 实验环境 主板:JZ2440 编译器:arm-linux-gcc version 4.3.2 (Sourcery G++ Lite 2008q3-72) Linux Kernel:3.4.2 DHCP版本:dhcp-4.2.5-P1.tar.gz 无线网卡:Ralink Technology, Corp. RT2870/RT3070 Wireless Adapter 交叉编译 解压 tar xzf dhcp - 4 . 2 . 5 - P1 . tar . gz cd dhcp - 4 . 2 . 5 - P1 配置 . / configure -- host=arm - linux ac_cv_file__dev_random=yes 修改 bind 文件夹中文件 cd bind vim Makefile 把第 55 行: . / configure -- disable - kqueue 改为 . / configure BUILD_CC=gcc ac_cv_file__dev_random=yes -- host=arm - linux -- disable - kqueue 解压 bind 文件夹下 bind.tar.gz tar xzf bind . tar . gz cd bind - 9 . 8 . 4 - P2

【译】让垃圾回收器高效工作(四)

六月ゝ 毕业季﹏ 提交于 2020-02-26 01:27:51
这篇文章我们来谈谈垃圾回收器和程序的虚拟内存、物理内存之间的关系。再谈谈怎样判断你的托管堆是否是健康的;为什么在机器还有大量内存的情况下程序会抛出OutofMemoryException。 垃圾回收和物理内存虚拟内存之间的关系: 如果你对这个话题已经了如指掌,请跳过这一段。 GC需要分配段,有关段的解释请参考《 让垃圾回收器高效工作(一) 》。GC调用VirtualAlloc来分配段空间。这意味着如果你的进程中没有足够的连续空间,分配就失败了。这是一种GC抛出OutOfMemeoryException的合法的情况(精确的说,GC没有抛出异常,抛出异常是执行引擎干的,GC只是在分配失败时返回了NULL)。 经常有人问我这样的问题:“为什么我程序的托管堆只使用了X MB的内存,运行时抛出了OutofMemoryException呢?” 其中XMB比2GB小得多。 记住在.Net程序中有一些内存不是GC消耗的。GC和其他一些东西一样是在竞争虚拟内存的空间。比如:你进程中载入的模块需要占用虚拟内存;有些模块直接调用本机代码分配内存也会消耗虚拟内存(VirtualAlloc,HeapAlloc,C++的new等等)。CLR本身也会有些不通过GC分配消耗的内存,比如jitted代码,一些CLR需要的数据结构等等。通常CLR需要的内存是相当小的。你可以通过SOS的

Hbase的API案例实战

五迷三道 提交于 2020-02-26 00:14:27
1、创建maven工程 自动导包(需要从cloudera仓库下载,耗时较长, 耐心等待 ) 如下内容作为maven工程中pom.xml的repositories的内容 <repositories> <repository> <id>cloudera</id> <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url> </repository> </repositories> <dependencies> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-client</artifactId> <version>2.6.0-mr1-cdh5.14.2</version> </dependency> <dependency> <groupId>org.apache.hbase</groupId> <artifactId>hbase-client</artifactId> <version>1.2.0-cdh5.14.2</version> </dependency> <dependency> <groupId>org.apache.hbase</groupId> <artifactId>hbase-server<