Kube

kubernetes(安装dashboard)

别来无恙 提交于 2020-05-04 10:24:03
https://blog.csdn.net/qq_22917163/article/details/84527420 1. 通过yaml文件安装dashboard 我们可以从https://github.com/kubernetes/dashboard/releases上边找到和自己安装的k8s相对于的dashboard的版本,这里我安装的是1.8.3的版本。 1.1 下载对应版本 https://github.com/kubernetes/dashboard 下载dashboard镜像 [root@k8s-master ~]# tar xf dashboard-1.8.3.tar [root@k8s-master ~]# cd dashboard-1.8.2/src/deploy/recommended/ 1.2 修改yaml文件中镜像地址 因为大家都知道的原因,yaml文件中的镜像地址无法被访问,因此无法拉下来我们需要的镜像,所以需要我们将镜像地址修改成可以访问到的(自行百度吧)。 1.3 修改yaml文件中service的type类型 官方的kubernetes-dashboard.yaml文件中service的type类型为clusterIp(service默认类型),这种方式要访问dashboard需要通过代理,所以我们改为NodePort方式,这样部署完后

K8S(kubernetes)概述

烂漫一生 提交于 2020-05-02 18:32:22
Kubernetes概述 一、什么是K8S(Kubernetes)? 1.k8s全称kubernetes,这个名字大家应该都不陌生,k8s是为容器服务而生的一个可移植容器的编排管理工具,越来越多的公司正在拥抱k8s,并且当前k8s已经主导了云业务流程,推动了微服务架构等热门技术的普及和落地,正在如火如荼的发展。那么称霸容器领域的k8s究竟是有什么魔力呢? 2.首先,我们从容器技术谈起,在容器技术之前,大家开发用虚拟机比较多,比如vmware和openstack,我们可以使用虚拟机在我们的操作系统中模拟出多台子电脑(Linux),子电脑之间是相互隔离的,但是虚拟机对于开发和运维人员而言,存在启动慢,占用空间大,不易迁移的缺点。举一个我亲身经历过的场景吧,之前在vmware中开发了一个线下平台,为了保证每次能够顺利使用,我们就把这个虚拟机导出为OVF,然后随身携带,用的时候在服务器中部署,这里就充分体现了虚拟机的缺点。 接着,容器化技术应运而生,它不需要虚拟出整个操作系统,只需要虚拟一个小规模的环境即可,而且启动速度很快,除了运行其中应用以外,基本不消耗额外的系统资源。Docker是应用最为广泛的容器技术,通过打包镜像,启动容器来创建一个服务。但是随着应用越来越复杂,容器的数量也越来越多,由此衍生了管理运维容器的重大问题,而且随着云计算的发展,云端最大的挑战,容器在漂移。在此业务驱动下

[转帖]Prometheus+Grafana监控Kubernetes

故事扮演 提交于 2020-05-02 17:52:04
原博客的位置: https://blog.csdn.net/shenhonglei1234/article/details/80503353 感谢原作者 这里记录一下自己试验过程中遇到的问题: 1 . 自己查看prometheus 里面的配置文件时 对mount的路径理解不清晰,以为是需要宿主机里面需要有目录才可以, 实际上不需要. 是k8s 将证书和token注入到container 里面去 使之能够与集群交互. 这里自己学习的不系统, 浪费了很多时间. 以为需要生成一个token 挂在进去才可以. 2 . 配置文件里面使用了nfs 的方式来挂作为pv和pvc的处理 一开始没注意,发现pod 总是 error 使用kubectl logs 命令找到问题原因后 修改了配置文件 创建自己的nfs server 才可以. 可以参考自己之前的 blog 有写制作blog 3 . nfs创建完成之后依旧报错. 这里的问题是 nfs 的目录的权限问题 提示 授权失败 无法绑定路径 翻墙google了下解决方案 将 nfs 目录修改成为 777权限,并且把owner 修改成 nobody 问题解决. 4 . service 如何暴露成为主机端口以及ingress的使用暂时还没弄清楚. 后续继续进行学习 感谢原作者的奉献 自己直接讲blog copy过来. 遇到的问题 在这里填充一下.

Kubernetes 系列(五):Prometheus监控框架简介

本小妞迷上赌 提交于 2020-05-02 17:51:47
由于容器化和微服务的大力发展,Kubernetes基本已经统一了容器管理方案,当我们使用Kubernetes来进行容器化管理的时候,全面监控Kubernetes也就成了我们第一个需要探索的问题。我们需要监控kubernetes的ingress、service、deployment、pod......等等服务,以达到随时掌握Kubernetes集群的内部状况。 此文章是Prometheus监控系列的第一篇,目的也很明确,旨在于寻找一套能够胜任kubernetes集群监控的架构。 k8s监控方案调研 1、cAdvisor + InfluxDB + Grafana 2、Heapster + InfluxDB + Grafana 3、Promethus + kube-state-metrics + Grafana Grafana : 开源DashBoard,后端支持多种数据库,如:Influxdb、Prometheus...,插件也比较多,功能强大。非常适合用于做展示。 InfluxDB : 开源时间序列数据库,性能高效 cAdvisor : 来自 Google 的容器监控工具,也是 Kubelet 内置的容器资源收集工具。它会自动收集本机容器 CPU、内存、网络和文件系统的资源占用情况,并对外提供 cAdvisor 原生的 API。随 kubelet 启动 --cadvisor-port

k8s实战之部署Prometheus+Grafana可视化监控告警平台

青春壹個敷衍的年華 提交于 2020-05-02 17:51:34
写在前面 之前部署web网站的时候,架构图中有一环节是监控部分,并且搭建一套有效的监控平台对于运维来说非常之重要,只有这样才能更有效率的保证我们的服务器和服务的稳定运行,常见的开源监控软件有好几种,如zabbix、Nagios、open-flcon还有prometheus,每一种有着各自的优劣势,感谢的童鞋可以自行百度,但是与k8s集群监控,相对于而已更加友好的是Prometheus,今天我们就看看如何部署一套Prometheus全方位监控K8S 主要内容 1.Prometheus架构 2.K8S监控指标及实现思路 3.在K8S平台部署Prometheus 4.基于K8S服务发现的配置解析 5.在K8S平台部署Grafana 6.监控K8S集群中Pod、Node、资源对象 7.使用Grafana可视化展示Prometheus监控数据 8.告警规则与告警通知 1 Prometheus架构 Prometheus 是什么 Prometheus(普罗米修斯)是一个最初在SoundCloud上构建的监控系统。自2012年成为社区开源项目,拥有非常活跃的开发人员和用户社区。为强调开源及独立维护,Prometheus于2016年加入云原生云计算基金会(CNCF),成为继Kubernetes之后的第二个托管项目。 官网地址: https://prometheus.io https://github

强大的Grafana k8s 插件

陌路散爱 提交于 2020-05-02 17:50:56
原文参考: https://i4t.com/4152.html 参考: https://blog.csdn.net/mailjoin/article/details/81389700 插件链接: https://grafana.com/grafana/plugins/grafana-kubernetes-app 备注:--query.max-samples=50000000 要设置为50000000,否则前端页面会有报错信息。 grafana k8s插件用于集群中的Prometheus部署。收集的指标包括高级别群集和节点统计信息以及较低级别的容器和容器统计信息。使用高级指标进行提醒,使用低级指标进行故障排除。 强大的Grafana k8s 插件 Grafana Prometheus 持久化安装 在早期的版本中 Kubernetes 提供了 heapster、influxDB、grafana 的组合来监控系统,所以我们可以在 Dashboard 中看到 heapster 提供的一些图表信息,在后续的版本中会陆续移除掉 heapster,现在更加流行的监控工具是 prometheus,prometheus 是 Google 内部监控报警系统的开源版本,是 Google SRE 思想在其内部不断完善的产物,它的存在是为了更快和高效的发现问题,快速的接入速度

Kubernetes---入门初体验

送分小仙女□ 提交于 2020-05-02 17:44:36
Kubernetes—入门初体验 一.什么是Kubernetes? 1.Kubernetes是Google在2014年开源的一-个容器集群管理系统,Kubernetes简称K8S。 2.K8S用于容器化应用程序的部署,扩展和管理。 3.K8S提供了容器编排,资源调度,弹性伸缩,部署管理,服务发现等一系列功能。 4.Kubernetes目标是让部署容器化应用简单高效。 5.k8s是一个有中心节点的架构集群,由master节点(至少三个)和nodes节点(运行容器的节点)组成,客户的启动容器等请求会先发给master节点,master节点有个调度器会分析node节点资源(cpu、内存)的可用状态,找到最佳适配的node来启动用户请求的容器。 官方网站: http://www.kubernetes.io 二.Kubernets的特性: 1.自动修复:在节点故障时重新启动失败的容器,替换和重新部署,保证预期的副本数量;杀死健康检查失败的容器,并且在为准备好之前不会处理客户端的请求,确保线上服务不中断。 2.弹性伸缩:使用命令、UI或者基于CPU的使用自动快速扩容和缩容应用程序实例,保证应用业务高峰并发时的高可用性;业务低峰时回收资源,以最小的成本运行服务。 3.自动部署和回滚:k8s采用滚动更新策略更新应用,一次更新一个Pod,而不是同时删除所有Pod,如果更新过程中出现问题,将回滚更改

Prometheus+Grafana监控Kubernetes

笑着哭i 提交于 2020-05-02 17:00:20
涉及文件下载地址:链接:https://pan.baidu.com/s/18XHK7ex_J0rzTtfW-QA2eA 密码:0qn6 文件中需要下载的镜像需要自己提前下载好,eg:prom/node-exporter:v0.16.0 Prometheus官方网址,或者百度自己了解脑补:https://prometheus.io/ 官方文档说明链接 Prometheus是一个开源的系统监控工具。 根据配置的任务(job)以http/s周期性的收刮(scrape/pull) 指定目标(target)上的指标(metric)。目标(target) 可以以静态方式或者自动发现方式指定。 Prometheus将收刮(scrape)的指标(metric)保存在本地或者远程存储上。 Prometheus以pull方式来收集指标。对比push方式, pull可以集中配置、针对不同的视角搭建不同的监控系统 Prometheus Server:核心组件,负责收刮和存储时序数据(time series data),并且提供查询接口; Jobs/Exporters:客户端,监控并采集指标,对外暴露HTTP服务(/metrics); 目前已经有很多的软件原生就支持Prometjeus,提供/metrics,可以直接使用; 对于像操作系统已经不提供/metrics的应用,可以使用现有的exporters

K8S安装dashboard、prometheus、grafana进行集群监控

空扰寡人 提交于 2020-05-02 16:59:56
1.1 准备工作 首先要搭建K8S集群,请参考另一篇文档: https://www.cnblogs.com/taoweizhong/p/10467795.html 在此基础上,本文安装K8s dashboard、prometheus、grafana进行监控(注意上篇文档中一个虚拟机的IP地址和这里有不同,原因没有配置静态IP)。 本文中涉及容器的部署方式说明: K8s dashboard采用K8S集群管理的部署方式 prometheus和grafana仅仅采用容器化部署,没有采用K8S集群管理的部署。 本文需要下载对应的镜像如下: prom/prometheus latest grafana/grafana latest docker.io/siriuszg/kubernetes-dashboard-amd64 latest docker.io/google/cadvisor v0.24.1(不知道为啥latest无法连接上prometheus) quay.io/prometheus/node-exporter latest 本文组网如下图: 1.2 K8S Dashboard K8S Dashboard是官方的一个基于WEB的用户界面(个人觉得比较简陋),专门用来管理K8S集群,并可展示集群的状态。K8S集群安装好后默认没有包含Dashboard,我们需要额外创建它

Kubernetes V1.10 二进制部署集群

南楼画角 提交于 2020-05-02 14:29:54
1. 架构篇 1.1 kubernetes 架构说明 1.2 Flannel网络架构图 1.3 Kubernetes工作流程 2. 组件介绍 2.1 Master节点 2.1.1 、网关服务 API Server:提供Kubernetes API接口,主要处理REST操作以及更新ETCD中的对象。所有资源增删改查的唯一入口   只有API Server才直接操作etcd   其他模块通过API Server查询活修改数据   提供其他模块之间的数据交互和通信的枢纽 2.1.2、 调度器 Scheduler:资源调度,负责分配调度Pod到集群内的Node节点   监听kube - apiserver,查询还未分配Node的Pod   根据调度策略为这些Pod分配节点 2.1.3、 控制器 Controller Manager:所有其他群集级别的功能。目前由控制器Manager执行。资源对象的自动化控制中心。它通过apiserver监控整个集群的状态,并确保集群处于预期的工作状态。 2.1.4、 存储 ETCD:所有持久化的状态信息存储在ETCD中 2.2 Node节点 2.2.1、Kubelet:管理Pods以及容器、镜像、Volume等,实现对集群对节点的管理。 2.2.2、Kube- proxy:提供网络代理以及负载均衡,实现与Service通信。 2.2.3、 Docker