nfs

mysql读写分离(proxySQL) lamp+proxysql+nfs

被刻印的时光 ゝ 提交于 2020-01-13 02:04:32
先在主从节点安装mysql [root@master-mariadb ~]# yum install mariadb-server -y [root@slave-mariadb ~]# yum install mariadb-server -y 配置主节点和从节点 [root@master-mariadb ~]# vim /etc/my.cnf [mysqld] datadir=/var/lib/mysql socket=/var/lib/mysql/mysql.sock server_id=27 log-bin=master-log skip_name_resolve=ON innodb_file_per_table=ON [root@slave-mariadb ~]# vim /etc/my.cnf [mysqld] datadir=/var/lib/mysql socket=/var/lib/mysql/mysql.sock relay-log=slave-log read_only=1 skip_name_resolve=ON innodb_file_per_table=ON 配置主节点做成master [root@master-mariadb ~]# mysql Welcome to the MariaDB monitor. Commands end with ; or

Kubernetes持久化存储PV、PVC和StorageClass介绍

家住魔仙堡 提交于 2020-01-13 01:15:24
PV和PVC Kubernetes Volume提供了非常好的数据持久化方案,不过对于大型Kubernetes集群来说管理上还有不方便之处。Volume方案需要创建Pod或者Deployment的管理员对共享存储的参数和机制比较清楚,甚至对一些存储的访问是需要身份验证的,这导致集群用户(存储使用者)和系统管理员(存储管理员)的职责耦合在一起了。但对于大型的生产环境,为了管理的效率和安全,集群用户(存储使用者)和系统管理员(存储管理员)是分置的。 Kubernetes引入了两个新的API资源PersistentVolume和PersistentVolumeClaim来解决这个问题。 PersistentVolume(PV)是集群中由系统管理员配置的一段网络存储。它是集群中的资源,就像node是集群资源一样。PV也是像是Volumes一样的存储插件,但其生命周期独立于使用PV的任何单个Pod。PV配置存储实现的详细信息,包括NFS,iSCSI或特定于云提供程序的存储系统。PV属于集群级别资源,不属于任何的Namespace。 PersistentVolumeClaim(PVC)是使用存储的请求,属于Namespace中的资源。PVC类似于Pod,Pod消耗node资源,PVC消耗PV资源。Pod可以请求特定级别的计算资源(CPU和内存),PVC可以请求特定大小和访问模式的存储资源。

Kubernetes存储卷介绍-emptyDir/hostPath/NFS/configMap

风流意气都作罢 提交于 2020-01-13 00:35:01
存储卷介绍 一个容器的对文件系统的写入都是发生在文件系统的可写层的,一旦该容器运行结束,所有写入数据都会被丢弃。在K8S集群之中,Pod会在各个节点之间漂移,如何保障Pod的数据持久和不同节点数据的共享。Kubernetes提出了存储卷Volume的概念,Kubernetes存储卷主要解决了依次递增的几个问题: 当运行的容器崩溃时,kubelet会重新启动该容器,但容器会以干净状态被重新启动。容器崩溃之前写入的文件将会被丢失。 当一个Pod中同时运行多个容器时,这些容器之间需要共享文件。 在k8s中,由于Pod分布在各个不同的节点之上,并不能实现不同节点之间持久性数据的共享,并且在节点故障时,可能会导致数据的永久性丢失。 Kubernetes存储卷拥有明确的生命周期,与所在的Pod的生命周期相同。因此Kubernetes存储卷独立于任何容器,所以数据在Pod重启的过程中还会保留,当然如果这个Pod被删除了,那么这些数据也会被删除。 Kubernetes 支持的卷类型 Type Type Type Type Type Type awsElasticBlockStore azureDisk azureFile cephfs cinder configMap csi downwardAPI emptyDir fc (fibre channel) flexVolume flocker

k8s之StatefulSet

允我心安 提交于 2020-01-12 22:06:58
StatefulSet(状态集) 1,什么是StatefulSet ? StatefulSet又叫PetSet(之前的名称),它和RS,RC,Deployment等一样,都是pod控制器。 StatefulSet是为了解决有状态服务的问题(对应于deoloyment和RS,RC,ReplicaSet都是为无状态服务而设计的)。 什么是无状态服务? 在生产环境中,pod的名称是随机的,扩缩容的是时候没有规律,每一个pod都可以被新生成的pod代替。 2,StatefulSet的应用场景包括: 稳定的持久化存储:即pod重新调度后还是能够访问到相同的持久化数据,基于PVC来实现。 稳定的网络标志:即pod重新调度后其pod名称和host名称不变,基于Headless Service(即没有cluster ip的service)来实现。 有序部署,有序扩展:即pod是由顺序的,在部署或者扩展的时候要依据定义的顺序依次进行(即从0到N-1, 在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态),基于init containers来实现。 有序收缩,有序删除:(即N-1到0) 从上面的引用场景可以发现,statefulset由以下几个部分组成: 1)headless Service:无头服务。用来定义pod的网络标识的(域名解析)。 2)statefulSet

NAS之NFS/CIFS

蓝咒 提交于 2020-01-12 14:34:18
NAS之NFS 为集群中的 Web Server 配置后端存储 NFS:Network File System 网络文件系统,Unix系统之间共享文件的一种协议 NFS 的客户端主要为Linux 支持多节点同时挂载以及并发写入 ======================================================== nas 192.168.122.59 web1 192.168.122.85 web2 192.168.122.166 web3 192.168.122.111 nas web1 web2 web3 # sed -ri '/^SELINUX=/cSELINUX=disabled' /etc/selinux/config # setenforce 0 centos6 # iptables -F # service iptables save centos7 # systemctl stop firewalld # systemctl disable firewalld # vim /etc/hosts [可选] 192.168.122.59 nas 192.168.122.85 web1 192.168.122.166 web2 192.168.122.111 web3 一、nas(存储端) [root@nas ~]# yum -y install

mount.nfs: requested NFS version or transport protocol is not supported

僤鯓⒐⒋嵵緔 提交于 2020-01-12 09:17:24
错误信息说明需求的nfs版本或传输协议不支持,意思是服务器端的nfs版本和客户端的nfs版本不同,百度发现网上都说该错误是内核配置有问题引发的,说是内核配置没有启用nfs导致。但是始终没有找到网上所说的修改内核配置的方法。 服务端 [ root@nfs01 ~ ] # nfsstat -s 查看版本信息 Server rpc stats: calls badcalls badclnt badauth xdrcall 8 48 0 48 0 Server nfs v4: null compound 8 100% 0 0% Server nfs v4 operations: op0-unused op1-unused op2-future access close commit 0 0% 0 0% 0 0% 0 0% 0 0% 0 0% create delegpurge delegreturn getattr getfh link 0 0% 0 0% 0 0% 0 0% 0 0% 0 0% lock lockt locku lookup lookup_root nverify 0 0% 0 0% 0 0% 0 0% 0 0% 0 0% open openattr open_conf open_dgrd putfh putpubfh 0 0% 0 0% 0 0% 0 0% 0 0% 0

nfs主主模式

倖福魔咒の 提交于 2020-01-11 21:26:05
1.解决了nfs单点故障; 2.使用nfs+keepalived做了主备;   1.当nfs服务器宕机时~主备切换,依据监控keepalived主上的nfs挂了,就停掉主keepalived;依靠keepalived的nfs_check.sh监控(脚本:nfs_check.sh)   nfs_check.sh:     1.监控keepalived是否为主,为主:检查挂载是可用     2.检查此机器上的nfs是否正常,不正常,关闭keepalived   2.通过keepalived的notify_master、notify_backup、notify_fault、notify_stop的4个状态,分别对应的脚本来决定数据的同步方向 3.通过rsync+inotify实现主备间的共享目录进行同步。 VIP:192.168.109.136 master-nfs:192.168.109.137 backup-nfs:192.168.109.138 client:192.168.109.139 nfs与所有挂载机做免密安全认证,为后面判断挂载读写正常检测提供(略) ssh-keygen ssh-copy-id IP 一、master-nfs、backup-nfs 安装nfs服务;client安装客户端(略):参考: https://www.cnblogs.com/NGames/p

FS-Cache: Netfs 'nfs' registered for caching

狂风中的少年 提交于 2020-01-11 16:06:39
在服务器上mount时出错,问题如下 [root@sz74 ~]# mount -t nfs -o nfsvers=3 zileo.com:/nfs/datapool /leostore mount: wrong fs type, bad option, bad superblock on fanshengzileo.com:/nfs/datapool, missing codepage or helper program, or other error (for several filesystems (e.g. nfs, cifs) you might need a /sbin/mount.<type> helper program) In some cases useful info is found in syslog - try dmesg | tail or so. [root@sz74 ~]# dmesg | tail [62045.002498] device veth01f67cf6 left promiscuous mode [62045.002509] cni0: port 2(veth01f67cf6) entered disabled state [66359.854367] ipip: IPv4 over IPv4 tunneling driver

Linux下配置nfs服务

╄→гoц情女王★ 提交于 2020-01-11 01:52:52
一、服务器端配置 查看nfs安装包 rpm -qa nfs-utils rpcbind 启动并查看rpc服务,配置rpc服务开机自启 service rpcbind status|start chkconfig rpcbind on 启动并查看nfs服务,配置nfs服务开机自启 service nfs status|start chkconfig nfs on 查看nfs向rpc注册的端口信息 rpcinfo -p 服务器端IP nfs服务器端配置文件配置 vi /etc/exports /data 客户端IP(insecure,rw,sync,no_root_squash) 其中/data为待共享的目录 二、客户端配置 查看nfs安装包 rpm -qa nfs-utils rpcbind 启动并查看nfs服务,配置nfs服务开机自启 service nfs start chkconfig nfs on 配置开机自动挂载共享目录 vi /etc/fstab 服务端IP:/data /rmtData nfs rw,tcp,intr 0 1 其中/rmtData为本地挂载目录 然后mount -a挂载,df -h查看状态 来源: CSDN 作者: Downton97 链接: https://blog.csdn.net/Downton97/article/details

How to configure NFS on Linux

天大地大妈咪最大 提交于 2020-01-11 01:43:47
Copy From: http://linuxconfig.org/how-to-configure-nfs-on-linux How to configure NFS on Linux 1. Introduction The Network File System is certainly one of the most widely used network services. Network file system (NFS) is based on the Remote procedure call which allows the client to automatically mount remote file systems and therefore transparently provide an access to it as if the file system is local. If you still have some questions after reading this article please try our new LinuxCareer Forum . 2. Scenario In this scenario we are going to export the file system from the an IP address 10