YML

Kubernetes Pod详解

谁说我不能喝 提交于 2020-12-31 06:02:25
[toc] 基本概念 Pod是kubernetes集群中最基本的资源对象。每个pod由一个或多个业务容器和一个根容器(Pause容器)组成。Kubernetes为每个pod分配唯一的ip,pod内的所有容器共享这个Ip。 可以通过如下操作查看pods: kubectl get pods -o wide --all-namespaces NAME READY STATUS RESTARTS AGE IP NODE missionlive-dz11-com-1622786470-2sk1r 1/1 Running 0 12h 172.17.2.3 ops-k8s-node-252 可以通过如下操作查看详细的Pod信息: kubectl describe po missionlive-dz11-com-1622786470-2sk1r Name: missionlive-dz11-com-1622786470-2sk1r Namespace: default Node: ops-k8s-node-252/10.1.61.252 Start Time: Mon, 03 Jul 2017 10:30:21 +0800 Labels: envrion=live name=missionlive-dz11-com pod-template-hash=1622786470 Status:

Prometheus 监控 Ceph 集群

丶灬走出姿态 提交于 2020-12-30 08:54:47
Prometheus 监控 Ceph 集群 Prometheus Module — Ceph Documentation Prometheus 模块启用: [root@node1 ~]# ceph mgr module enable prometheus [root@node1 ~]# ceph mgr services { "dashboard": "https://node1:8443/", "prometheus": "http://node1:9283/" } [root@node1 ~]# netstat -tnlp | grep 9283 tcp6 0 0 :::9283 :::* LISTEN 1507703/ceph-mgr 默认情况下,模块将在主机上的所有 IPv4 和 IPv6 地址的端口上接受 HTTP 请求。 ceph config set mgr mgr/prometheus/server_addr 0.0.0.0 ceph config set mgr mgr/prometheus/server_port 9283 安装 prometheus 步骤请移步我之前的博客 掌握Prometheus 监控思科交换机技能,这篇文章就够了!-余生还长,何必慌张-51CTO博客 (一) Prometheus 监控思科交换机---各中间件安装部署 ceph 各节点部署

Discourse 安装 Google Adsense

拜拜、爱过 提交于 2020-12-28 23:11:37
在使用 Discourse 进行服务的时候,很多人可能会希望安装一些广告服务。 对 Discourse 的广告服务来说还是可以的,因为广告服务的位置不是非常影响阅读。 这篇文章将会描述如何在 Discourse 中提供广告服务。 安装插件 Discourse 的 Google Adsense 广告服务是使用插件进行安装的。 安装插件的方法,请参考: Install Plugins in Discourse - admins - Discourse Meta 页面中的内容。 有关启用广告服务的文章,请参考页面: Official Advertising / Ad Plugin for Discourse - plugin - Discourse Meta 中的内容。 广告服务的源代码,请参考: GitHub - discourse/discourse-adplugin: Official Discourse Advertising Plugin. Install & Start Serving Ads on Your Discourse Forum 代码仓库。 安装代码 根据提示,你首先需要添加插件代码,然后对 Discourse 进行重编译。 编辑 app.yml 文件,如果你有多个仓库,你可以进行添加在下面。 如下: sudo -E -u discourse git clone

Elastic search,Kibana,APM server 安装历程

别说谁变了你拦得住时间么 提交于 2020-12-27 07:43:48
接个任务,为某公司内网安装一套Elastic APM, 用于监测内网运行的各类项目。 因为是内网服务器,无法连接内网,选择使用压缩包方式安装部署。 服务器环境: linux Redhat7 step1: 从官网下载相关压缩包,并使用XFTP上传到内网服务器中。 官网下载地址: 选择linux 64-BIT版本,版本号为7.0.3 https://www.elastic.co/cn/downloads/ https://www.elastic.co/cn/downloads/apm step2: 安装jdk11.0.4 从官网下载jdk11.0.4,解压后,设置 /etc/profile vim /etc/profile 添加 export JAVA_HOME=/usr/es/elk_apm/jdk-11.0.4 export PATH=$PATH:$JAVA_HOME/bin 运行 source /etc/profile step3: 切换到root账号,新建一个账号es,并授予root用户权限。(Elastic search默认不支持root账户启动) 添加es用户组 groudadd es 添加es用户 useradd es 添加es用户密码 passwd es 如果在添加过程中出现could not change to group 错误,请查阅 https://blog

Prometheus 入门

本秂侑毒 提交于 2020-12-24 15:12:31
简介 Prometheus 是一套开源的系统监控报警框架。它启发于 Google 的 borgmon 监控系统,由工作在 SoundCloud 的 google 前员工在 2012 年创建,作为社区开源项目进行开发,并于 2015 年正式发布。 特点 作为新一代的监控框架,Prometheus 具有以下特点: 强大的多维度数据模型: 时间序列数据通过 metric 名和键值对来区分。 所有的 metrics 都可以设置任意的多维标签。 数据模型更随意,不需要刻意设置为以点分隔的字符串。 可以对数据模型进行聚合,切割和切片操作。 支持双精度浮点类型,标签可以设为全 unicode。 灵活而强大的查询语句(PromQL):在同一个查询语句,可以对多个 metrics 进行乘法、加法、连接、取分数位等操作。 易于管理:Prometheus server 是一个单独的二进制文件,可直接在本地工作,不依赖于分布式存储。 高效:平均每个采样点仅占 3.5 bytes,且一个 Prometheus server 可以处理数百万的 metrics。使用 pull 模式采集时间序列数据,这样不仅有利于本机测试而且可以避免有问题的服务器推送坏的 metrics。 可以采用 push gateway 的方式把时间序列数据推送至 Prometheus server 端。

Prometheus入门

最后都变了- 提交于 2020-12-24 15:12:07
什么是TSDB? TSDB(Time Series Database)时序列数据库,我们可以简单的理解为一个优化后用来处理时间序列数据的软件,并且数据中的数组是由时间进行索引的。 时间序列数据库的特点 大部分时间都是写入操作。 写入操作几乎是顺序添加,大多数时候数据到达后都以时间排序。 写操作很少写入很久之前的数据,也很少更新数据。大多数情况在数据被采集到数秒或者数分钟后就会被写入数据库。 删除操作一般为区块删除,选定开始的历史时间并指定后续的区块。很少单独删除某个时间或者分开的随机时间的数据。 基本数据大,一般超过内存大小。一般选取的只是其一小部分且没有规律,缓存几乎不起任何作用。 读操作是十分典型的升序或者降序的顺序读。 高并发的读操作十分常见。 常见的时间序列数据库 TSDB项目 官网 influxDB https://influxdata.com/ RRDtool http://oss.oetiker.ch/rrdtool/ Graphite http://graphiteapp.org/ OpenTSDB http://opentsdb.net/ Kdb+ http://kx.com/ Druid http://druid.io/ KairosDB http://kairosdb.github.io/ Prometheus https://prometheus.io/

Prometheus 入门

孤者浪人 提交于 2020-12-24 14:54:40
简介 Prometheus 是一套开源的系统监控报警框架。它启发于 Google 的 borgmon 监控系统,由工作在 SoundCloud 的 google 前员工在 2012 年创建,作为社区开源项目进行开发,并于 2015 年正式发布。 特点 作为新一代的监控框架,Prometheus 具有以下特点: 强大的多维度数据模型: 时间序列数据通过 metric 名和键值对来区分。 所有的 metrics 都可以设置任意的多维标签。 数据模型更随意,不需要刻意设置为以点分隔的字符串。 可以对数据模型进行聚合,切割和切片操作。 支持双精度浮点类型,标签可以设为全 unicode。 灵活而强大的查询语句(PromQL):在同一个查询语句,可以对多个 metrics 进行乘法、加法、连接、取分数位等操作。 易于管理: Prometheus server 是一个单独的二进制文件,可直接在本地工作,不依赖于分布式存储。 高效:平均每个采样点仅占 3.5 bytes,且一个 Prometheus server 可以处理数百万的 metrics。 使用 pull 模式采集时间序列数据,这样不仅有利于本机测试而且可以避免有问题的服务器推送坏的 metrics。 可以采用 push gateway 的方式把时间序列数据推送至 Prometheus server 端。

ES(Elasticsearch)

强颜欢笑 提交于 2020-12-24 06:35:37
基本概念 Elasticsearch是一个实时分布式搜索和分析引擎 支持: 全文搜索 结构化搜索 分析 可以这样进行描述: 分布式的实时文件存储,每个字段都被索引并可被搜索 分布式的实时分析搜索引擎 可以扩展到上百台服务器,处理PB级结构化或非结构化数据 所有的这些功能被集成到一个服务里面,你的应用可以通过简单的RESTful API、各种语言的客户端甚至命令行与之交互。 java也有自己的客户端 与ES交互 ES节点 一个Elasticsearch实例是一个节点,一组节点组成了集群。Elasticsearch集群中的节点可以配置为3种不同的角色: 主节点: 控制Elasticsearch集群,负责集群中的操作,比如创建/删除一个索引,跟踪集群中的节点,分配分片到节点。主节点处理集群的状态并广播到其他节点,并接收其他节点的确认响应。 每个节点都可以通过设定配置文件elasticsearch.yml中的node.master属性为true(默认)成为主节点。 对于大型的生产集群来说,推荐使用一个专门的主节点来控制集群,该节点将不处理任何用户请求。 数据节点: 持有数据和倒排索引。默认情况下,每个节点都可以通过设定配置文件elasticsearch.yml中的node.data属性为true(默认)成为数据节点。如果我们要使用一个专门的主节点,应将其node

【1.5】SpringCloud入门之Eureka consumer OpenFeign

让人想犯罪 __ 提交于 2020-12-24 01:42:22
用maven创建一个eureka-consumer-feign 1.引入springcloud对应的pom <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> <version>2.2.0.RELEASE</version> </dependency> <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-openfeign</artifactId> </dependency> <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-netflix-eureka-client</artifactId> </dependency> 2.新建启动类,服务调用类,请求入口类 2.1 EurekaConsumerFeignApplication package com.pimee; import org.springframework.boot.SpringApplication;

spring boot logback无感配置

 ̄綄美尐妖づ 提交于 2020-12-23 04:14:20
spring boot1.5.x版本的日志配置一直有一个问题,就是不能直接通过yml配置文件进行日志文件大小进行动态和方便的配置。 怎么解决?直接在springboot项目的maven工程中的src/main/resources的目录下加入如下logback-spring.xml文件,logback-spring命名的logback配置文件在spring boot中加载的优先级是最高的,所以项目一起动就可以加载生效。 其中我在配置文件中添加了控制大小的变量。具体配置文件内容如下: <? xml version="1.0" encoding="UTF-8" ?> < configuration debug ="false" scan ="true" scanPeriod ="60 seconds" > < include resource ="org/springframework/boot/logging/logback/defaults.xml" /> < include resource ="org/springframework/boot/logging/logback/console-appender.xml" /> < contextName > logback </ contextName > < springProperty scope ="logback" name