高可用

高薪岗位云计算面试题,云计算运维工程师必备

只愿长相守 提交于 2019-11-27 09:37:58
文章转载自: http://www.pythonheidong.com/blog/article/3323/ 云计算产业市场规模快速增长,人才需求数量激增。相关云计算企业加大对核心技术的投入,提高对客户的服务,无论从技术层面,运营商层面还是集成与服务提供层面,人才需求巨大。下面给大家分享高薪岗位云计算面试题,云计算运维工程师必备好好收藏吧。 1.osi七层参考模型有哪些? 应用层 表示层 会话层 传输层 网络层 数据链路层 物理层 2.udp协议工作在哪一层?ping工作在哪一层? UDP工作在传输层 ping 工作在网络层 3.linux系统中用于检测通信的命令有哪些?(四个以上) ping tracerroute 4.linux系统中查看硬件资源(五个以上)以及进程的命令有哪些? lspci | grep -i vga //查看显卡信息 cat /proc/cpuinfo //查看CPU信息 dmesg | grep sda //查看硬盘信息 cat /proc/meminfo //查看内存信息 dmesg | grep -i eth //查看网卡信息 ps a //显示现行终端机下的所有程序,包括其他用户的程序。 5.如何杀死僵死的进程?(三条以上) 这道题一般用不到 6.查看cpu信息的命令是什么? cat /proc/cpuinfo //查看CPU信息 7

第二章 使用 kind 一分钟搭建 k8s 集群

試著忘記壹切 提交于 2019-11-27 09:29:49
注意: 本系列文章一共 2 篇,链接如下: 第一章:kind 介绍与安装 第二章:使用 kind 一分钟搭建 k8s 集群 目录 1 创建 k8s 单节点集群 1.1 创建集群 1.2 查看集群信息 1.3 查看集群节点信息 1.4 查看集群组件信息 1.5 创建 deployment 和 pod 2 创建 k8s 多节点集群(1 master, 1 worker) 2.1 编写多节点集群配置文件 2.2 创建多节点集群 2.3 设置和获取多节点集群信息 2.4 查看多节点集群信息 3 创建 HA 高可用 k8s 集群(多 master, 多 worker) 3.1 编写高可用集群配置文件 3.2 创建高可用集群 3.3 设置和获取高可用集群信息 3.4 查看高可用集群信息 4 删除集群 1 创建 k8s 单节点集群 1.1 创建集群 # kind create cluster --name k8s-single-node-cluster 1.2 查看集群信息 # export KUBECONFIG="$(kind get kubeconfig-path --name="k8s-single-node-cluster")"# kubectl cluster-info 1.3 查看集群节点信息 # kubectl get nodes 1.4 查看集群组件信息 # kubectl

nginx高可用

社会主义新天地 提交于 2019-11-27 08:50:42
15.1. 传统的高可用思路 tomcat 的高可用的思路,是在 tomcat 集群前面加一层负载服务 nginx 。如下图 这种做法,解决了 tomcat 的高可用问题。但是引入了前面的负载机器的高可用问题( Nginx 如果挂了,玩完) 如果 nginx 沿用此思路,总会有一个最前端是单机的,存在宕机玩完的风险(鸡生蛋蛋生鸡无穷尽) 15.2. lvs 思想解决高可用问题 如上图,由服务器集群虚拟出来一台 虚拟网关 vip (不真实存在,自然不存在宕机问题), 此 vip 由两台机器共同协商生成。当有一台机器宕机时,另一台机器一样能维持 vip 。这保证了,只要两台机器不同时宕机, vip 就存在 15.3. keepalived配置LVS过程 前提 1. 关闭 selinux ,打开 /etc/sysconfig/selinux 设置其中值 à SELINUX=disabled 2. 安装必须的依赖包 yum -y install libnl libnl-devel libnfnetlink-devel keepalived 安装 下载源码包 -- 不能使用 yum 方式安装(有 bug ) --wget https://www.keepalived.org/software/keepalived-1.3.4.tar.gz 配置 ( 指定安装目录和配置目录,否则文件太散乱 )

搭建基于Jenkins, Apache Mesos和Marathon的弹性高可用的持续集成环境

跟風遠走 提交于 2019-11-27 08:35:41
【编者按】 持续集成的开发实践是目前的一个热门话题,在本文中,数人科技云平台负责人周伟涛解析其利用开源的Jenkins,Apache Mesos和Marathon搭建弹性的,高可用的持续集成环境的实践,详细介绍了 环境设置,在Marathon上部署Jenkins的master实例,配置Jenkins Master实现弹性伸缩,在内部的代码库或者 github 上创建一个 git repo,以及使用 marathon 部署可持久化的 Jenkins Master等步骤。 持续集成(CI)是一种软件开发实践,使用得当,它会极大的提高软件开发效率并保障软件开发质量;Jenkins是一个开源项目,它提供了一种易于使用的持续集成系统;Mesos是Apache下的一个开源的统一资源管理与调度平台,它被称为是分布式系统的内核;Marathon是注册到Apache Mesos上的管理长时应用(long-running applications)的Framework,如果把Mesos比作数据中心Kernel的话,那么Marathon就是init或者upstart的daemon。 本文旨在探讨如何利用Jenkins,Apache Mesos和Marathon搭建一套弹性的,高可用的持续集成环境。 为什么要把Jenkins运行到Apache Mesos上 把Jenkins运行到Apache Mesos上

MySQL高可用性分析

不羁岁月 提交于 2019-11-27 07:37:02
版权声明:本文由易固武原创文章,转载请注明出处: 文章原文链接: https://www.qcloud.com/community/article/203 来源:腾云阁 https://www.qcloud.com/community MySQL数据库是目前开源应用最大的关系型数据库,有海量的应用将数据存储在MySQL数据库中。存储数据的安全性和可靠性是生产数据库的关注重点。本文分析了目前采用较多的保障MySQL可用性方案。 MySQL Replication MySQL Replication是MySQL官方提供的主从同步方案,用于将一个MySQL实例的数据,同步到另一个实例中。Replication为保证数据安全做了重要的保证,也是现在运用最广的MySQL容灾方案。Replication用两个或以上的实例搭建了MySQL主从复制集群,提供单点写入,多点读取的服务,实现了读的scale out。 图1. MySQL Replication主从复制集群 如图一所示,一个主实例(M),三个从实例(S),通过replication,Master生成event的binlog,然后发给slave,Slave将event写入relaylog,然后将其提交到自身数据库中,实现主从数据同步。对于数据库之上的业务层来说,基于MySQL的主从复制集群,单点写入Master

叶问12

删除回忆录丶 提交于 2019-11-27 05:31:39
《叶问》是知数堂新设计的互动栏目,不定期给大家提供技术知识小贴士,形式不限,或提问、或讨论均可,并在当天发布答案,让大家轻轻松松利用碎片时间就可以学到最实用的知识点。 2019年01月08日,周二 RDS上,MySQL实例中某张表数据小于tmp_table_size,但有查询时会报错临时空间满 The table '/data/mysql/zst/tmp/#sql_13975_23' is full。原因可能是什么? 一、可能有下面几种情况: 1、在SQL中执行group by、order by、distinct、union、多表update、子查询、多表JOIN等情况下,可能需要生成内部临时表,当内部临时表超过tmp-table-size时,就会产生磁盘临时表。 2、接上,若查询包含BLOB、TEXT类型字段时,MySQL会直接使用磁盘临时表。 3、云数据库购买的磁盘空间,是包括数据库文件、日志文件(binlog、relay log、error log等)、临时文件&临时表(关注 Created_tmp_disk_tables、Created_tmp_tables、Binlog_cache_disk_use、Binlog_stmt_cache_disk_use等指标)所消耗占用的磁盘空间。 4、发生table...is full报错,说明可能生成磁盘临时表太多

Mysql——基于MHA的Mysq高可用架构搭建

梦想与她 提交于 2019-11-27 03:39:29
一.知识剖析: MHA(Master High Availability)目前在MySQL高可用方面是一个相对成熟的解决方案,它由日本DeNA公司youshimaton(现就职于 Facebook公司)开发,是一套优秀的作为MySQL高可用性环境下故障切换和主从提升的高可用软件。 在MySQL故障切换过程中,MHA能做到在 0~30秒之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用。 该软件由两部分组成:MHA Manager(管理节点)和MHA Node(数据节点)。MHA Manager可以单独部署在一台独立的机器上管理多个master-slave集群,也可以部署在一台slave节点上。 MHA Node运行在每台MySQL服务器上,MHA Manager会定时探测集群中的master节点,当master出现故障时,它可以自动将最新数据的slave提升为新的master,然后将所有其他的slave重新指向新的master。整个故障转移过程对应用程序完全透明。 目前MHA主要支持一主多从的架构,要搭建MHA,要求一个复制集群中必须最少有三台数据库服务器,一主二从,即一台充当master,一台充当备用master,另外一台充当从库 注意: 1.需要奇数个结点 2.每一个节点都要安装master和master

海量数据处理利器greenplum——初识

喜欢而已 提交于 2019-11-27 00:34:22
本文转自https://www.cnblogs.com/skyme/p/5779885.html 简介及适用场景 如果想在数据仓库中快速查询结果,可以使用greenplum。 Greenplum数据库也简称GPDB。它拥有丰富的特性: 第一,完善的标准支持:GPDB完全支持ANSI SQL 2008标准和SQL OLAP 2003 扩展;从应用编程接口上讲,它支持ODBC和JDBC。完善的标准支持使得系统开发、维护和管理都大为方便。而现在的 NoSQL,NewSQL和Hadoop 对 SQL 的支持都不完善,不同的系统需要单独开发和管理,且移植性不好。 第二,支持分布式事务,支持ACID。保证数据的强一致性。 第三,做为分布式数据库,拥有良好的线性扩展能力。在国内外用户生产环境中,具有上百个物理节点的GPDB集群都有很多案例。 第四,GPDB是企业级数据库产品,全球有上千个集群在不同客户的生产环境运行。这些集群为全球很多大的金融、政府、物流、零售等公司的关键业务提供服务。 第五,GPDB是Greenplum(现在的Pivotal)公司十多年研发投入的结果。GPDB基于PostgreSQL 8.2,PostgreSQL 8.2有大约80万行源代码,而GPDB现在有130万行源码。相比PostgreSQL 8.2,增加了约50万行的源代码。 第六,Greenplum有很多合作伙伴

性能测试从零开始实施指南——测试计划篇

佐手、 提交于 2019-11-26 23:15:31
最近有些同学找我咨询关于性能测试计划相关的问题,原因是他们公司要做性能测试,Leader要求写一份性能测试计划,苦于之前没做过相关工作,无从下手。 这篇博客,结合我个人的一些经验和总结,聊聊如何制定一份较为全面的性能测试计划。。。 一、测试背景 首先要阐述本次性能测试的背景,即被测系统类型,面向哪些用户,具备什么特点,为什么要进行性能测试,预期的一些指标等等。 比如:为了保证“双十一”大促期间,系统能稳定运行且保障业务的高可用,进行性能测试。 核心:评估系统性能、分析性能变化趋势、定位系统瓶颈风险、协助规划系统容量。 二、测试目的 测试的目的要根据测试背景来分析设定,比如: 1、线上服务由于流量过高某部分应用挂了,那测试目的就是:定位瓶颈、分析调优验证; 2、运营做了拉新和新的渠道拓展,那测试目的就是:评估系统性能是否满足新的线上业务; 3、系统架构由集群技改为微服务,那测试目的就是:验证稳定性、可用性、单实例容量,为线上服务扩容提供容量规划数据; 三、测试范围 通过需求调研,分析用户使用场景,对业务数据量增长变化趋势及峰值活跃用户等数据做定量分析,确定被测系统的应用范围,比如订单+购物车+商品+支付服务。 业务归属模块 业务涉及场景 订单 创建订单 取消订单 购物车 添加购物车 删除购物车 商品 商品列表 商品详情 支付 余额支付 支付宝支付 微信支付 四、术语约定

Rabbitmq集群高可用测试

折月煮酒 提交于 2019-11-26 20:57:03
Rabbitmq集群高可用 RabbitMQ是用erlang开发的,集群非常方便,因为erlang天生就是一门分布式语言,但其本身并不支持负载均衡。 Rabbit模式大概分为以下三种:单一模式、普通模式、镜像模式 单一模式:最简单的情况,非集群模式。 没什么好说的。 普通模式:默认的集群模式。 对于Queue来说,消息实体只存在于其中一个节点,A、B两个节点仅有相同的元数据,即队列结构。 当消息进入A节点的Queue中后,consumer从B节点拉取时,RabbitMQ会临时在A、B间进行消息传输,把A中的消息实体取出并经过B发送给consumer。 所以consumer应尽量连接每一个节点,从中取消息。即对于同一个逻辑队列,要在多个节点建立物理Queue。否则无论consumer连A或B,出口总在A,会产生瓶颈。 该模式存在一个问题就是当A节点故障后,B节点无法取到A节点中还未消费的消息实体。 如果做了消息持久化,那么得等A节点恢复,然后才可被消费;如果没有持久化的话,然后就没有然后了…… 镜像模式:把需要的队列做成镜像队列,存在于多个节点,属于 RabbitMQ的HA方案 。 该模式解决了上述问题,其实质和普通模式不同之处在于,消息实体会主动在镜像节点间同步,而不是在consumer取数据时临时拉取。 该模式带来的副作用也很明显,除了降低系统性能外,如果镜像队列数量过多