nfs

基于NFS实现集群文件共享

不羁岁月 提交于 2020-02-05 14:00:48
集群文件共享的目的 之前我们已经把集群关联起来了,接下来我们需要配置文件共享来实时地对集群文件进行增删改查。 简单来说有两个步骤:一是通过NFS在每个节点上形成挂载点,二是用节点下的目录文件替代同名的容器内的目录文件 最终由各个节点里的目录文件通过共享文件夹关联到了1个NFS Server的一个目录中,我们通过对这个目录里的文件进行修改,全局都会发生变更~ 删除之前的deploy和service部署 主服务器 我们采取从新部署的形式,先通过以下两条命令先删除之前部署的deploy和service kubectl delete deployment tomcat-deploy kubectl delete service tomcat-service 目录 集群文件共享的目的 删除之前的deploy和service部署 实现NFS实现集群文件共享 1.进入deploy目录下 2.编辑tomcat-deploy.yml文件 3.重新部署deploy 4.主节点新建文件 5.在从节点查看文件 如何在主节点上查看从节点的内容 实现NFS实现集群文件共享 1.进入deploy目录下 cd /usr/local/k8s/tomcat-deploy 2.编辑tomcat-deploy.yml文件 在里面增加如下配置 3.重新部署deploy kubectl create -f tomcat

SQLite DB on NFS in cluster. Will I get data corruption?

南笙酒味 提交于 2020-02-05 09:02:21
问题 I use SQLite for a database which I want to persist on an NFS. Any VM in my cluster might shut down at some point in which case docker swarm will spin up a replica on another VM to take over. Unfortunately the NFS seems not to support file locking so I turned it off (by mounting with "nolock") now I worry if I can be sure that the data will not be corrupted. Scenarios I could think of are: One of the VMs was simply disconnected from the internet just long enough for another replica to spin up

部署Nfs服务

…衆ロ難τιáo~ 提交于 2020-02-04 11:16:26
服务概述 Nfs是network file system的缩写,中文意思是网络文件系统,主要功能是通过网络(一般是局域网)让不同的主机系统之间可以共享文件或者目录 互联网中小型网站集群架构后端常用Nfs进行相互据共享 大型网站,有可能用到更复杂的分布式文件系统,例如:Moosefs GlusterFs FastDFS 存储服务器存在的意义 ①实现数据统一存储 ②节省磁盘购买成本 存储服务存储原理 在存储客户端创建本地存储数据目录 在存储服务端创建共享存储数据目录 实现客户端目录和存储目录建立挂载 客户端目录中操作数据等价于存储服务器目录中操作数据 部署过程 服务端 安装软件 yum -y install rpcbind nfs-utils 编写配置文件 vim /etc/exports 创建存储目录 mkdir /data chown nfsnobody.nfsnobody /data 编写本地解析配置文件 vim /etc/hosts 启动服务程序 systemctl start nfs rpcbind 客户端 安装软件程序 yum -y install nfs-utils 2.挂载应用存储服务 临时挂载 mount -t nfs ip地址或者主机名:/存储目录 挂载点 永久挂载 ①vim /etc/rc.local ②vim /etc/fstab( 先加载/etc/fstab

Ansible-playbook

匆匆过客 提交于 2020-02-01 20:44:29
1.Ad-Hoc简介 1)ad-hoc命令 执行shell命令,或shell脚本。可以执行一些简单的命令,不需要将这些执行的命令特别保存下来。 适合执行简单的命令 2)Ansible playbook 可以解决比较复杂的任务,可以将命令保存下来。适合执行配置管理或部署客户机 2.Ansible playbook playbook是由一个或多个模块组成的,使用多个不同的模块,完成一件事 playbook通过yaml语法识别描述的状态文件.扩展名是yaml 1).YAML三板斧 缩进 YAML使用一个固定的缩进风格表示层级结构,每个缩进由两个空格组成,不能使用tab(默认一个tab=4个空格) 解决方法: [root@m01 ~]# cat .vimrc set number set tabstop=2 冒号 以冒号结尾的除外,其他所有冒号后面必须有空格 短横线 表示列表项,使用一个短横杠加一个空格。 多个项使用同样的缩进级别作为同一列表。 who 谁 what 事情 how 动作 ansible-playbook命令格式 ansible-playbook [option] filename 常用选项: -C, --check 模拟运行 --list-hosts 列出剧本主机清单 [root@m01 ansible_playbook]# ansible-playbook --list

NFS服务搭建(Linux-Windows)

穿精又带淫゛_ 提交于 2020-02-01 02:31:16
准备一台centos和一台windows centos配置 安装nfs-ntils和rpcbind [root@localhost ~]# yum -y install nfs-utils rpcbind 修改配置文件,允许客户端访问 [root@localhost ~]# vim /etc/exports [root@localhost ~]# cat /etc/exports /home/xxx 192.168.1.210/24(rw) 创建目录并增加权限 [root@localhost ~]# mkdir /home/xxx [root@localhost ~]# chomd 777 /home/xxx 开启服务,开启的顺序不能改变 [root@localhost ~]# systemctl start rpcbind [root@localhost ~]# systemctl start nfs 关闭防火墙,降低沙盒等级 [root@localhost ~]# systemctl stop firewalld [root@localhost ~]# setenforce 0 windows配置 开启windows的NFS服务 使用win+r打开运行界面输入cmd打开终端 来源: CSDN 作者: Arlong_cui 链接: https://blog.csdn.net

Ubuntu配置NFS

 ̄綄美尐妖づ 提交于 2020-01-30 12:13:06
一.NFS服务器配置 1.sudo apt-get install nfs-kernel-server–安装 1.1 sudo /etc/init.d/nfs-kernel-server status 1.2 sudo service portmap status 为了使nfs服务器正常工作,需要先启动portmap和nfs两个服务,并且portmap一定要先于nfs启动。 停止时,先停止nfs,再停止portmap服务。 2.sudo vim /etc/exports—对共享资源的客户端权限管理 二.NFS客户端配置 1.showmount -e nfs服务器的主机名或ip 查看NFS服务器上有哪些共享目录 2.sudo mount -t nfs服务器ip :共享目录 本地挂载点 2.1sudo vim /etc/fstab ----开机自动挂载 格式: NFS服务器主机名/ip:共享目录 本地挂载点 nfs defaults 0 0 3.sudo umount 本地挂载点 来源: CSDN 作者: 吃数据的猴子 链接: https://blog.csdn.net/m0_43450897/article/details/103828118

NFS网络文件系统

丶灬走出姿态 提交于 2020-01-30 01:22:48
root的映射是nfsnobody NFS:网络文件系统,主要是通过网络(一般情况是局域网)让不同主机的系统直接可以共享文件或目录。NFS客户端通过挂载的方式将NFS服务器端共享的目录挂载到客户端的某个挂载点下。服务器端看共享目录就相当于看自己的目录一样,而实际上是看的远端的NFS服务器。 客户端请求过程: 1、用户在NFS客户端上发出存取NFS文件的请求,这时NFS客户端的RPC服务(rpcbind)就会通过网络向NFS服务器端的rpc服务(rpcbind)的111端口发出NFS文件存取功能的询问请求。 2、服务器端的RPC服务找到对应的已注册的NFS端口后,通知客户端的RPC服务。 3、此时客户端获得了正确的端口,并与NFS daemon(进程)联机存取数据 4、客户端把数据存取成功后,返回前端访问程序,告诉用户存取结果。 对服务器端配置: 关闭防火墙以及SElinux: [root@localhost ~]# systemctl stop firewalld [root@localhost ~]# systemctl disable firewalld [root@localhost ~]# vim /etc/sysconfig/selinux 设为disbaled 然后设置服务器端主机名并重新登陆: [root@localhost ~]# hostnamectl set

NFS启动出错Restarting nfs-kernel-server (via systemctl): failed!

北慕城南 提交于 2020-01-29 04:02:10
之前NFS已经安装完毕,并且能够正常运行,今天运行时出现一下错误: sudo /etc/init.d/nfs-kernel-server restart Restarting nfs-kernel-server (via systemctl): nfs-kernel-server.serviceJob for nfs-server.service canceled. failed! 检查/etc/exports发现,有一个文件夹之前被设置为共享目录,之后文件夹被删除了,所以nfs服务启动时就会出错。 将不存在的共享文件夹,从/etc/exports中删除就行了。 来源: CSDN 作者: Yaser-Z 链接: https://blog.csdn.net/lovescorpio/article/details/103854297

NFS服务

倖福魔咒の 提交于 2020-01-28 16:04:51
介绍 NFS(NetworkFileSystem),网络文件系统,基于RPC实现在远程主机上完成读写功能,NFS服务端功能由Kernel中提供,所以只能在Linux、UNIX中使用,另外只能根据IP地址限制用户访问。 RPC (Remote Procedure Call),实现两个远程主机之间功能函数的调用、参数传递功能。在Linux中一些通用功能都被做成库,本地的应用程序需要使用这些功能时,直接调用即可,这就叫本地调用;本地所需要的库(功能函数)在远程主机上,这时候就可以使用RPC协议将调用请求、参数封装成报文在网络上传输,并且服务端能理解之后将调用请求在本地执行返回结果,这称为远程过程调用。很多服务都会基于RPC完成某些功能, 例如NFS服务就基于RPC调用远程 主机上的open() ,read(),write(),close()…等函数将执行结果返回本地,完成文件共享功能。 工作原理 1. 服务端启动时将NFS功能(NFS daemons)像RPC进行注册端口。 2. 客户端通过RPC连接服务器获取NFS Daemon注册的端口。 3. 客户端连与NFS daemon进行联机,mountd对用户进行认证,nfs提供文件共享服务功能。 NFS daemon rpc.nfsd 提供NFS服务 rpc.mountd 用于验证用户是否有权限使用NFS rpc.lockd与rpc

Ansible部署rsync、nfs及sersync

爷,独闯天下 提交于 2020-01-26 20:35:05
rsync nfs sersync httpd 环境: 角色 外网IP(NAT) 内网IP(LAN) 主机名 Rsync服务端 eth0:10.0.1.51 eth1:172.16.1.51 backup NFS&Sers服务端 eth0:10.0.1.41 eth1:172.16.1.41 nfs JUMP SERVER eth0:10.0.1.71 eth1:172.16.1.71 m01 Rsy&NFS客户端 eth0:10.0.1.7 eth1:172.16.1.7 web01 Rsy&NFS客户端 eth0:10.0.1.8 eth1:172.16.1.8 web02 cat /etc/ansible/hosts [backup] 172.16.1.51 [nfs] 172.16.1.41 [web] 172.16.1.7 172.16.1.8 [all:children] backup nfs web 1.基础环境部署 1)firewalld selinux 2)ssh密钥生成以及公钥推送 ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa -C root ssh-copy-id -i ~/.ssh/id_rsa root@172.16.1.7 ssh-copy-id -i ~/.ssh/id_rsa root@172.16.1.8 ssh