存储快照

EOS基础全家桶(四)启动节点

允我心安 提交于 2020-04-03 12:35:05
简介 本篇我们将会介绍在安装了EOS后,如何快速的启动一个节点,及启动产块节点的方式。 EOS程序主要由三部分组成,nodeos(node eos)、cleos(cli eos)和keosd(key eos)。 nodeos为节点,负责产块和提供节点API等。 cleos是命令行工具,可以和nodeos、keosd进行交互。 keosd是负责存储钱包私钥的。 Docker启动 目前官方已经不推荐使用docker容器了,但是使用容器可以给我们带来很多方便,已经让windows用户也能使用EOS,所幸我们仍然可以使用到最新的镜像,这得力于eostudio的贡献。我们可以使用 eostudio/eos ,该镜像下有多个tag对应不同的EOS发行版本,请拉取时指定特定的版本,EOS各版本间不能保证完全兼容,各版本的升级说明还请关注官方github的 release 中的updating部分。 #拉取镜像 docker pull eostudio/eos:v2.0.2 以下是创建容器的最简推荐方式: docker run --name eosio -d \ -p 8888:8888 -p 9876:9876 \ -v /var/program/eosio/chain/:/eosio/nodeos \ -v /var/program/eosio/wallet:/root/eosio

Flink Kafka Connector 与 Exactly Once 剖析

限于喜欢 提交于 2020-03-30 14:33:50
Flink Kafka Connector 是 Flink 内置的 Kafka 连接器,它包含了从 Kafka Topic 读入数据的 Flink Kafka Consumer 以及向 Kafka Topic 写出数据的 Flink Kafka Producer,除此之外 Flink Kafa Connector 基于 Flink Checkpoint 机制提供了完善的容错能力。本文从 Flink Kafka Connector 的基本使用到 Kafka 在 Flink 中端到端的容错原理展开讨论。 1.Flink Kafka 的使用 在 Flink 中使用 Kafka Connector 时需要依赖 Kafka 的版本,Flink 针对不同的 Kafka 版本提供了对应的 Connector 实现。 1.1 版本依赖 既然 Flink 对不同版本的 Kafka 有不同实现,在使用时需要注意区分,根据使用环境引入正确的依赖关系。 <dependency> <groupId>org.apache.flink</groupId> <artifactId>${flink_kafka_connector_version}</artifactId> <version>${flink_version}</version> </dependency> 在上面的依赖配置中 ${flink

Redis之持久化

亡梦爱人 提交于 2020-03-23 18:21:02
3 月,跳不动了?>>> 前言: Redis是一种高级的以key-value形式存储数据的nosql数据库。支持多种数据类型:字符串、哈希,链表、集合、有序集合。并且支持服务器端数据的交集,并集,补集计算,排序,及数据持久。 由于Redis所有的数据都保存在内存里面,如果没有配置持久化,redis重启后数据就会丢失,于是需要开启持久化功能,将数据保存到磁盘上。Redis提供两种持久化方式,一种是RDB持久化,将Redis在内存中的数据定时dump到磁盘上,另一种是AOF持久化,将Redis的操作日志以追加的方式写入文件。 区别: RDB持久化 持久化是指在指定的时间间隔内将内存中的数据集快照写入磁盘,实际操作就是fork一个子进程,先将数据集写入临时文件,写入成功后,在替换之前的文件,用二进制压缩存储。RDB是redis默认的持久化方式。 AOF持久化以日志的形式记录服务器所记录的每一个写、删除操作,查询操作不会记录,以文本的方式记录,可以打开文件看到详细的操作记录。 持久化: RDB: redis调用fork,现在有了子进程和父进程。 父进程继续处理client请求,子进程负责将内存内容写入到临时文件。由于os的写时复制机制(copy on write)父子进程会共享相同的物理页面,当父进程处理写请求时os会为父进程要修改的页面创建副本,而不是写共享的页面

redis系列-主从复制

[亡魂溺海] 提交于 2020-03-11 08:57:20
redis自身提供了主从的机制,通过配置可以实现服务的备份(Master->Slave)。 配置项 slaveof <masterip> <masterport> masterauth <master-password> <master password=""> //如果master设置了requirepass password </master> 复制流程 Slave启动或重新与Master连接时,向Master发送SYNC Master收到SYNC判断后台是否有正在进行的内存快照保存子进程,没有则启动一个快照保存子进程,有则等待快照保存完成,将快照文件传送给要求同步的Slave Slave收到快照文件后,清空内存,加载该快照 Master在保存快照过程中,会把改变数据集的命令缓存到一队列中,后续依次发给Slave;在以后的连接未中断过程中,会逐一发送写命令到Slave 使用注意 1.通常Master可以配置成只写、不保存,Slave负责对外读、以及持久化(slave-read-only yes) 2.slave在与Master断开连接或正在同步快照时,通过配置slave可以继续接收读请求或者拒绝请求 slave-serve-stable-data yes //继续提供服务 slave-server-stable-data no//不提供服务,返回错误"SYNC with

Linux运维*一.Linux基础---15、btrfs文件系统

被刻印的时光 ゝ 提交于 2020-03-10 23:41:15
一、btrfs文件系统简介 btrfs(B-tree,Butter FS,Better FS):由GPL授权,Oracle在2007年左右开始研发,支持写时复制(CoW),是ext的取代产品,centos6不支持btrfs btrfs核心特征: 1、多物理卷支持: btrfs可由多个底层物理卷组成 支持RAID、以联机“添加”、“移除”、“修改” 2、支持写时复制跟新机制(CoW): 修改文件时,不直接修改原文件,而是修改快照复制出那份文件 修改完成后将文件名指向重源文件改为指向修改的复制文件上; 工作模式为:复制、更新、替换指针; 可实现文件的快速修复及恢复。 3、支持数据及元数据校验码:checksum 4、支持子卷:sub_volume 5、支持快照及增量快照:即支持给快照进行快照 6、透明压缩: 将数据存储到btrfs文件系统时,能实现自动压缩; 读取时有能实现自动解压缩,节约存储空间 二、btrfs文件系统管理工具 [root@localhost ~]# btrfs btrfs btrfs-debug-tree btrfs-map-logical btrfstune btrfsck btrfs-find-root btrfs-select-super btrfs-zero-log btrfs-convert btrfs-image btrfs-show-super

Java单体应用 - 开发工具 - 02.Maven

不打扰是莪最后的温柔 提交于 2020-03-10 11:41:34
原文地址: http://www.work100.net/training/monolithic-tools-maven.html 更多教程: 光束云 - 免费课程 Maven 序号 文内章节 视频 1 简介 - 2 下载和安装 - 3 配置 MAVEN_HOME - 4 本地仓库 - 5 中央仓库 - 6 依赖机制 - 7 POM - 8 插件 - 9 快照 - 10 常用命令 - 11 第一个 Maven 应用程序 - 请参照如上 章节导航 进行阅读 1.简介 Maven 项目对象模型(POM),可以通过一小段描述信息来管理项目的构建,报告和文档的项目管理工具软件。 Maven 除了以程序构建能力为特色之外,还提供高级项目管理工具。由于 Maven 的缺省构建规则有较高的可重用性,所以常常用两三行 Maven 构建脚本就可以构建简单的项目。由于 Maven 的面向项目的方法,许多 Apache Jakarta 项目发文时使用 Maven,而且公司项目采用 Maven 的比例在持续增长。 Maven 这个单词来自于意第绪语(犹太语),意为知识的积累,最初在Jakata Turbine项目中用来简化构建过程。当时有一些项目(有各自Ant build文件),仅有细微的差别,而JAR文件都由CVS来维护。于是希望有一种标准化的方式构建项目,一个清晰的方式定义项目的组成

Linux下的kvm虚拟化部署

点点圈 提交于 2020-03-06 00:16:56
目录 实验环境 1. kvm安装 2.虚拟化相关信息 3.手动安装虚拟机 4.虚拟机管理命令 5.虚拟机快照 6.虚拟机快照脚本 实验环境 Redhat企业8真实主机:kvm对主机的硬件需求较高,尽量在linux真机中做实验 在这台主机上 搭建yum源 ,可以安装软件; 在主机上 搭建DHCP服务器 ,给新建的虚拟机分配IP; 在主机上 配置vsftpd服务 ,用来共享镜像资源 为kvm配置网络桥接接口 ①:分别编写ifcfg-br0,ifcfg-ens160文件 ②:重启网络,查看设备连接,查看IP,网络配置成功 1. kvm安装 1.1 安装条件 inter cpu 支持vmx功能 amd cpu 支持svm功能 1.2 安装 组件 解释 Virtualization Client 虚拟化客户端 Virtualization Tools 虚拟化工具 Virtualization Hypervisor 虚拟化核心套件 安装以上3个组件 2.虚拟化相关信息 服务名称:libvirtd 虚拟化核心: qemu/kvm 虚拟化存储目录(虚拟机硬盘):/var/lib/libvirt/images/xxxx.qcow2 虚拟化硬件信息:/etc/libvirt/qemu/xxxx.xml 3.手动安装虚拟机 3.1 、本地资源安装虚拟机 ①:打开虚拟机管理器: virt-manager

Redis持久化机制

孤者浪人 提交于 2020-02-27 03:59:43
RDB存储 RDB方式的持久化是通过快照完成的,当符合一定条件时Redis会自动将内存中的所有数据生成一份副本并存储在硬盘上。 Redis会在一下集中情况下对数据进行快照: 根据配置规则进行快照; 用户执行SAVE或BGSAVE命令; 执行FLUSHALL命令; 执行复制时; 根据配置规则进行快照 # 时间策略 save 900 1 save 300 10 save 60 10000 # 文件名称 dbfilename dump.rdb # 文件保存路径 dir /home/work/app/redis/data/ # 如果持久化出错,主进程是否停止写入 stop-writes-on-bgsave-error yes # 是否压缩 rdbcompression yes # 导入时是否检查 rdbchecksum yes 例如Redis的配置文件中: # 时间策略 save 900 1 save 300 10 save 60 10000 如果符合其中的任意一条,则会触发一次快照。 当然如果你想要禁用RDB配置,也是非常容易的,只需要在save的最后一行写上: save "" SAVE或BGSAVE 当执行SAVE时,Redis会同步进行快照操作,快照执行过程中会阻塞所有来自客户端的请求。 当执行BGSAVE时,可以在后台异步进行快照操作,快照的同时服务器还可以继续响应来自客户端的请求

zookeeper日志各类日志简介

こ雲淡風輕ζ 提交于 2020-02-22 05:09:22
zookeeper服务器会产生三类日志:事务日志、快照日志和log4j日志。 在zookeeper默认配置文件zoo.cfg(可以修改文件名)中有一个配置项dataDir,该配置项用于配置zookeeper快照日志和事务日志的存储地址。在官方提供的默认参考配置文件zoo_sample.cfg中,只有dataDir配置项。其实在实际应用中,还可以为事务日志专门配置存储地址,配置项名称为dataLogDir,在zoo_sample.cfg中并未体现出来。在没有dataLogDir配置项的时候,zookeeper默认将事务日志文件和快照日志文件都存储在dataDir对应的目录下。建议将事务日志(dataLogDir)与快照日志(dataLog)单独配置,因为当zookeeper集群进行频繁的数据读写操作是,会产生大量的事务日志信息,将两类日志分开存储会提高系统性能,而且,可以允许将两类日志存在在不同的存储介质上,减少磁盘压力。log4j用于记录zookeeper集群服务器运行日志,该日志的配置地址在conf/目录下的log4j.properties文件中,该文件中有一个配置项为“zookeeper.log.dir=.”,表示log4j日志文件在与执行程序(zkServer.sh)在同一目录下。当执行zkServer.sh 时,在该文件夹下会产生zookeeper.out日志文件

自动工作负载库(Automatic Workload Repository,AWR)

蓝咒 提交于 2020-02-16 06:51:48
自动工作负载库(Automatic Workload Repository,AWR) AWR的由来: 10g之前的oracle:用户的连接将产生会话,当前会话记录保存在v$session中;处于等待状态的会话会被复制一份放在v$session_wait中。当该连接断开后,其原来的连接信息在v$session和v$session_wait中就会被删除;oracle10g及之后保留下了v$session_wait中的这些信息,并多了v$active_session_history(ASH)视图,记录每个活动session在v$session_wait中最近10次的等待事件。 ASH的采样数据是保存在内存中。而分配给ASH的内存空间是有限的,当所分配空间占满后,旧的记录就会被覆盖掉;而且数据库重启后,所有的这些ASH信息都会消失。这样,对于长期检测oracle的性能是不可能的。 在Oracle10g中,提供了永久保留ASH信息的方法,这就是AWR。 由于全部保存ASH中的信息是非常耗费时间和空间的, AWR采用的策略是:每小时对v$active_session_history进行采样一次,并将信息保存到磁盘中,并且保留7天,7天后旧的记录才会被覆盖。 这些采样信息被保存在视图wrh$_active_session_history中。而这个采样频率(1小时)和保留时间(7天