volume

【linux】lvm扩展根分区

自作多情 提交于 2019-12-02 02:01:45
lvm扩展根目录 1.lvm的基本概念 physical volume (PV) 通常是一快硬盘。相当于一个物理设备,磁盘空间物理卷PV。 volume group (VG) 相当于LVM的卷组,属于一个抽象下的组概念,一个VG可以包括多个PV。我的实操是我的VG下面,包含了PV(/dev/sda5)和PV(/dev/sdb1)如下: root@ubuntudoc:~# pvdisplay --- Physical volume --- PV Name /dev/sda5 VG Name ubuntudoc-vg PV Size 49.76 GiB / not usable 2.00 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 12738 Free PE 0 Allocated PE 12738 PV UUID ADh3K6-fjVA-5lLY-9vzu-eIxe-utiL-pOYtZa --- Physical volume --- PV Name /dev/sdb1 VG Name ubuntudoc-vg PV Size 16.00 GiB / not usable 3.00 MiB Allocatable yes (but full) PE Size 4.00 MiB Total PE 4095 Free

algorithm for filling a surface mesh

假装没事ソ 提交于 2019-12-02 01:26:44
I have a point cloud which describes a closed surface mesh. I want to create a volume mesh out of this: Therefore I have to append some points inside this "surface-point-cloud". Until now I use a kind of Sierpinski-algorithm: 1) begin with middlepoint of all points 2) random choose one of the surface points 3) create new point at the half of the connection line between point (1) and (2) 4) start again at (1) but take the new point (3) as first point Problem: When I triangulate all my points then many angles are too big (ANSYS can't work with this dataset). Does anyone know a good algorithm for

Docker存储(4)

坚强是说给别人听的谎言 提交于 2019-12-02 00:03:26
一、docker存储资源类型   用户在使用 Docker 的过程中,势必需要查看容器内应用产生的数据,或者需要将容器内数据进行备份,甚至多个容器之间进行数据共享,这必然会涉及到容器的数据管理 (1)Data Volume (数据卷) (2)Data Volume Dontainers --- 数据卷容器   数据卷 是一个可供一个或多个容器使用的特殊目录,实现让容器中的一个目录和宿主机中的一个文件或者目录进行绑定。数据卷 是被设计用来持久化数据的 对于数据卷你可以理解为NFS中的哪个分享出来的挂载点,指宿主机共享的目录。 主要有如下的功能和特性: 1. 容器中数据的持久存储 2. 容器间的资源共享 3. 容器的迁移(分布式) 4. 对数据卷的修改会立马生效 5. 对数据卷的更新,不会影响镜像 6. 数据卷默认会一直存在,即使容器被删除 (注意docker自主管理的会被删除,容器删除前一定要对数据卷进行备份) 二、Data Volume --- 数据卷    Data Volume 本质上是 Docker Host 文件系统中的目录或文件,使用类似与 Linux 下对目录或者文件进行 mount 操作。数据卷可以在容器之间共享和重用,对数据卷的更改会立马生效,对数据卷的更新不会影响镜像,卷会一直存在,直到没有容器使用 Data Volume 有以下特点:   a)Data

CentOS 7 安装 GlusterFS

守給你的承諾、 提交于 2019-12-01 23:56:54
CentOS 7 安装 GlusterFS https://www.cnblogs.com/jicki/p/5801712.html改天测试一下 我一直没有搞这一块呢. CentOS 7 GlusterFS 环境说明: 3台机器安装 GlusterFS 组成一个集群。 使用 docker volume plugin GlusterFS 服务器: 10.6.0.140 10.6.0.192 10.6.0.196 配置 hosts 10.6.0.140 swarm-manager 10.6.0.192 swarm-node-1 10.6.0.196 swarm-node-2 client: 10.6.0.94 node-94 安装: CentOS 安装 glusterfs 非常的简单 在三个节点都安装glusterfs yum install centos-release-gluster yum install -y glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma 配置 GlusterFS 集群: 启动 glusterFS systemctl start glusterd.service systemctl enable glusterd.service 在 swarm-manager 节点上配置,将 节点 加入到

glusterfs分布式文件系统详细原理

拈花ヽ惹草 提交于 2019-12-01 21:48:15
1.Glusterfs简介 GlusterFS是Scale-Out存储解决方案Gluster的核心,它是一个开源的分布式文件系统,具有强大的横向扩展能力,通过扩展能够支持数PB存储容量和处理数千客户端。GlusterFS借助TCP/IP或InfiniBandRDMA网络将物理分布的存储资源聚集在一起,使用单一全局命名空间来管理数据。 说起glusterfs可能比较陌生,可能大家更多的听说和使用的是NFS,GFS,HDFS之类的,这之中的NFS应该是使用最为广泛的,简单易于管理,但是NFS以及后边会说到MooseFS都会存在单点故障,为了解决这个问题一般情况下都会结合DRBD进行块儿复制。但是glusterfs就完全不用考虑这个问题了,因为它是一个完全的无中心的系统。 2.Glusterfs特点 扩展性和高性能 GlusterFS利用双重特性来提供几TB至数PB的高扩展存储解决方案。Scale-Out架构允许通过简单地增加资源来提高存储容量和性能,磁盘、计算和I/O资源都可以独立增加,支持10GbE和InfiniBand等高速网络互联。Gluster弹性哈希(ElasticHash)解除了GlusterFS对元数据服务器的需求,消除了单点故障和性能瓶颈,真正实现了并行化数据访问。 高可用性 GlusterFS可以对文件进行自动复制,如镜像或多次复制,从而确保数据总是可以访问

GlusterFS分布式文件系统使用简介

主宰稳场 提交于 2019-12-01 21:42:00
0 术语简介 GlusterFS是一个开源的分布式文件系统。更多特性介绍附录的参考文档。 Brick:GFS中的存储单元,通过是一个受信存储池中的服务器的一个导出目录。可以通过主机名和目录名来标识,如'SERVER:EXPORT' Client: 挂载了GFS卷的设备 Extended Attributes:xattr是一个文件系统的特性,其支持用户或程序关联文件/目录和元数据。 FUSE:Filesystem Userspace是一个可加载的内核模块,其支持非特权用户创建自己的文件系统而不需要修改内核代码。通过在用户空间运行文件系统的代码通过FUSE代码与内核进行桥接。 Geo-Replication GFID:GFS卷中的每个文件或目录都有一个唯一的128位的数据相关联,其用于模拟inode Namespace:每个Gluster卷都导出单个ns作为POSIX的挂载点 Node:一个拥有若干brick的设备 RDMA:远程直接内存访问,支持不通过双方的OS进行直接内存访问。 RRDNS:round robin DNS是一种通过DNS轮转返回不同的设备以进行负载均衡的方法 Self-heal:用于后台运行检测复本卷中文件和目录的不一致性并解决这些不一致。 Split-brain:脑裂 Translator: Volfile:glusterfs进程的配置文件,通常位于/var

glusterfs分布式文件系统安装调试

青春壹個敷衍的年華 提交于 2019-12-01 21:40:52
Glusterfs分布式文件系统安装调试 Edit by esxu 2015.07.08 概述 GlusterFS是Scale-Out存储解决方案Gluster的核心,它是一个开源的分布式文件系统,具有强大的横向扩展能力,通过扩展能够支持数PB存储容量和处理数千客户端。GlusterFS借助TCP/IP或InfiniBand RDMA网络将物理分布的存储资源聚集在一起,使用单一全局命名空间来管理数据。GlusterFS基于可堆叠的用户空间设计,可为各种不同的数据负载提供优异的性能。 安装部署 Glusterfs安装部署相对来说较简单,几步操作即可完成。 yum源配置 wget http://download.gluster.org/pub/gluster/glusterfs/LATEST/CentOS/glusterfs-epel.repo 可直接使用官方的yum源即可,如果是内网可将源同步到本地,目前支持的版本一到centos7.1 创建并挂载本地磁盘 fdisk /dev/sdb and create a single partition 格式化 mkfs.xfs -i size=512 /dev/sdb1 作为brick进行挂载 mkdir -p /export/sdb1 && mount /dev/sdb1 /export/sdb1 && mkdir -p /export

centos7 / redhat 7的分区扩容

倾然丶 夕夏残阳落幕 提交于 2019-12-01 19:24:51
linux扩容:分区扩容前先用fdisk把该分区的system id改成lvm(8e) 创建逻辑卷: 创建PV(转换物理卷)--->创建VG--->创建LV,并格式化 fdisk /dev/sdb,创建分区并将id改为8e fdisk /dev/sdc创建分区并将id改为8e fdisk /dev/sdd创建分区并将id改为8e pvscan查看当前是否有物理卷 pvdisplay 1、[root@localhost ~]# pvcreate /dev/sdb1 Physical volume "/dev/sdb1" successfully created. [root@localhost ~]# pvcreate /dev/sdc1 Physical volume "/dev/sdc1" successfully created. [root@localhost ~]# pvcreate /dev/sdc1 Physical volume "/dev/sdc1" successfully created. [root@localhost ~]# 2、创建卷组VG vgscan、vgdisplay [root@localhost ~]# vgscan Reading volume groups from cache. [root@localhost ~]# vgcreate

centos7 / redhat 7的分区扩容

流过昼夜 提交于 2019-12-01 19:24:48
linux扩容:分区扩容前先用fdisk把该分区的system id改成lvm(8e) 创建逻辑卷: 创建PV(转换物理卷)--->创建VG--->创建LV,并格式化 fdisk /dev/sdb,创建分区并将id改为8e fdisk /dev/sdc创建分区并将id改为8e fdisk /dev/sdd创建分区并将id改为8e pvscan查看当前是否有物理卷 pvdisplay 1、[root@localhost ~]# pvcreate /dev/sdb1 Physical volume "/dev/sdb1" successfully created. [root@localhost ~]# pvcreate /dev/sdc1 Physical volume "/dev/sdc1" successfully created. [root@localhost ~]# pvcreate /dev/sdc1 Physical volume "/dev/sdc1" successfully created. [root@localhost ~]# 2、创建卷组VG vgscan、vgdisplay [root@localhost ~]# vgscan Reading volume groups from cache. [root@localhost ~]# vgcreate

Controlling volume in a java application

烂漫一生 提交于 2019-12-01 18:29:16
I am fairly new at java. I need to control volume (volume up/down, mute) in a java application. I couldn't find a way to do this. I am developing on a linux system (for information). I tired this code: Java Code: Port lineIn; FloatControl volCtrl; try { mixer = AudioSystem.getMixer(null); lineIn = (Port)mixer.getLine(Port.Info.LINE_IN); lineIn.open(); volCtrl = (FloatControl) lineIn.getControl( FloatControl.Type.VOLUME); // Assuming getControl call succeeds, // we now have our LINE_IN VOLUME control. } catch (Exception e) { System.out.println("Failed trying to find LINE_IN" + " VOLUME control: