Btrfs

How to take a recursive snapshot of a btrfs subvol?

限于喜欢 提交于 2021-02-09 07:21:16
问题 Assume that a btrfs subvol named "child-subvol" is within a another subvol say, "root-subvol" and if we take snapshot of "root-subvol" then, the "child-subvol" should also be taken a snapshot. Since recursive snapshot support is not yet there in btrfs file system, how can this be achieved alternatively ? 回答1: Step 1: Get all the residing btrfs sub-volumes. Preferably in the sorted order as achieved by the command below. $ btrfs subvolume list --sort=-path < top_subvol > Step 2: In the order

How to take a recursive snapshot of a btrfs subvol?

穿精又带淫゛_ 提交于 2021-02-09 07:20:16
问题 Assume that a btrfs subvol named "child-subvol" is within a another subvol say, "root-subvol" and if we take snapshot of "root-subvol" then, the "child-subvol" should also be taken a snapshot. Since recursive snapshot support is not yet there in btrfs file system, how can this be achieved alternatively ? 回答1: Step 1: Get all the residing btrfs sub-volumes. Preferably in the sorted order as achieved by the command below. $ btrfs subvolume list --sort=-path < top_subvol > Step 2: In the order

How to take a recursive snapshot of a btrfs subvol?

本小妞迷上赌 提交于 2021-02-09 07:16:03
问题 Assume that a btrfs subvol named "child-subvol" is within a another subvol say, "root-subvol" and if we take snapshot of "root-subvol" then, the "child-subvol" should also be taken a snapshot. Since recursive snapshot support is not yet there in btrfs file system, how can this be achieved alternatively ? 回答1: Step 1: Get all the residing btrfs sub-volumes. Preferably in the sorted order as achieved by the command below. $ btrfs subvolume list --sort=-path < top_subvol > Step 2: In the order

Cannot remove dead docker containers. Storage driver: btrfs

假如想象 提交于 2021-02-08 08:34:12
问题 I am having trouble removing dead containers. When I try to remove container I get: $ docker rm -f d1dd3082f7bb Error response from daemon: Unable to remove filesystem for d1dd3082f7bbfc2310e497d0af47d51a8ca4e6e90a0d565a85d033f96a12325f: remove /var/lib/docker/containers/d1dd3082f7bbfc2310e497d0af47d51a8ca4e6e90a0d565a85d033f96a12325f/shm: device or resource busy Have never encountered such problem before. Some information about current setup: $ uname -a Linux AUIS1 3.16.6-2-default #1 SMP

「Linux」- 磁盘及文件系统管理 @20210207

让人想犯罪 __ 提交于 2021-02-07 15:38:38
磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!!磁盘操作有风险,先备份数据,谨防数据丢失!!! # TODO rm on a directory with millions of files rm on a directory with millions of files -> https://serverfault.com/questions/183821/rm-on-a-directory-with-millions-of-files/328305#328305 How can I delete a folder with lots of subfolders fast? # TODO initramfs 「 LFS/About

开源开发者为任天堂 N64 主机带来了新的 Linux 内核移植

拜拜、爱过 提交于 2020-12-27 10:06:13
开源开发者为任天堂 N64 主机带来了新的 Linux 内核移植 据 cnbeta 报道,最近主机游戏领域开源有一些新成就,索尼为 PS5 标配的 DualSense 手柄提供了官方 Linux 驱动程序。而任天堂 N64 主机亦迎来了 Linux 内核的新移植。作为一款距今已有 20 个年头的主机,该项目着实让粉丝们感到有些意外。曾为 Mesa 和 Linux 图形驱动作出过贡献的开源开发者于今年圣诞节期间正式宣布了这一喜讯。 拍一拍:总是有些极客愿意挑战一些有趣的事情。 Linux 5.10 的 Btrfs 性能严重衰退 据 cnbeta 报道,在紧急发布的维护版本更新中修复 RAID、AMDGPU 等问题之后,长期支持(LTS)的 Linux Kernel 5.10 内核再次爆出新问题:部分用户遭遇到了惊人的 Btrfs 性能倒退。例如解压一个大型 .tar.zst 文件,解压时间可能会从原本的 15 秒左右变成将近 5 分钟。不过,维护人员已经在圣诞节之前找到了问题根源,很快就能解决。 拍一拍:看来 Linus 对 5.10 要赶在圣诞节前推出有点乐观,所以才出现了这些问题。 Rust 编写的 Redox OS 0.6发布 据 slashdot 报道,基于微内核的 Rust 编写的操作系统 Redox OS 出了一个新的圣诞版本,有许多错误修复和新功能。完全重写了其 RMM

CentOS7 安装

▼魔方 西西 提交于 2020-12-18 08:55:17
一、安装Centos 1.1 选择安装选项 1.2 选择语言    1.3 软件选择   对于初学者- GUI的服务器,同时把“开发工具”相关的软件包也安装上 1.4 磁盘分区 (1)-先选择我要配置 (2)选择标准分区 (3)分区 设备类型选择默认的标准分区,文件系统类型为xfs,Centos7支持brtfs,生产环境不建议选择,btrfs文件系统目 前技术尚未成熟,只是作为一种前瞻技术。 boot 分区 : 是引导分区,作用:系统启动,在boot分区存放着grub,内核文件等,一般200M就够。 swap 交换分区 : 内存扩展分区 交换分区 给多大? 以前内存比较小的时候,都是1.5到2倍的物理内存。          现在物理内存比较大一般最多:8G到16G,如果系统使用到了swap分区,就直接添加物理内存或排查一下服务器有没有被黑。 / 根 : 所有文件的根 绝对路径的开始标志 sda :表示第一块磁盘 1.5 关闭kdump   这个基本没啥用 1.6 启用网络 默认网络是关闭的,可以配置成手动地址。 1.7 开始安装-配置密码 注:Root密码:123456,如果密码过于简单,需要单击 两次 完成进行确认 二、centos6 与 centos7的区别 文件系统的区别:ext4 xfs 硬盘默认调度算法不一样:cfq deadline 内核版本不一样:2.6 3.10

使用 LVM 扩展卷空间

我的未来我决定 提交于 2020-11-28 08:39:39
LVM 是一个逻辑卷管理工具,包括分配磁盘、条带化、镜像和调整逻辑卷的大小。它在 Fedora 安装中被普遍使用(在 BTRFS 作为默认文件系统之前是 LVM + Ext4)。但是你是否曾经遇到过启动系统时,GNOME 提示 home 卷几乎没有空间了!幸运的是,很有可能有一些空间在另一个卷中,而未被使用,可以用于重新分配。下面就来看看如何用 LVM 回收硬盘空间。 在卷之间轻松重新分配空间的关键是 逻辑卷管理器(LVM) 。Fedora 32 及以前的系统默认使用 LVM 来划分磁盘空间。这种技术类似于标准的硬盘分区,但 LVM 更加灵活。LVM 不仅可以实现灵活的卷大小管理,还可以实现一些高级功能,比如读写快照、在多个硬盘上进行数据条带化或镜像、将高速硬盘作为慢速硬盘的缓存等等。所有这些高级选项可能会让人有点不知所措,但调整卷的大小很简单的。 LVM 基础 卷组 (VG)作为 LVM 系统中的主要容器。默认情况下,Fedora 只定义了一个卷组,但你可以根据需要定义多个卷组。实际的硬盘和硬盘分区被添加到卷组中作为 物理卷 (PV)。物理卷会将可用的空间添加到卷组中。一个典型的 Fedora 安装有一个格式化的启动分区,其余的硬盘是一个配置为 LVM 物理卷的分区。 从这个可用空间池中,卷组分配了一个或多个 逻辑卷 (LV)。这些卷类似于硬盘分区,但没有磁盘上连续空间的限制

Fedora 33 Workstation 的新功能

你。 提交于 2020-11-09 12:27:18
Fedora 33 Workstation 是我们这个免费的、领先的操作系统的 最新版本 。你现在就可以从 官方网站 下载它。Fedora 33 Workstation 中有一些新的和值得注意的变化。请阅读如下更多细节。 GNOME 3.38 Fedora 33 Workstation 为各类用户提供了最新版本的 GNOME 桌面环境。在 Fedora 33 Workstation 中的 GNOME 3.38 包含了许多更新和改进,包括: 一个新的 GNOME Tour 应用 现在,新用户会看到一个“新的 Tour 应用,重点展示了桌面的主要功能,并为第一次使用 GNOME 的用户提供一个很好的欢迎页”。 拖动重排序应用 GNOME 3.38 用一个单一的可定制的、一致的视图取代了之前分开的“常用”和“所有”应用视图,这允许你重新排列应用并将它们组织到自定义文件夹中。只需点击并拖动即可移动应用。 改进屏幕录制 GNOME Shell 中的屏幕录制基础架构已被改进,以利用 PipeWire 和内核 API。这将有助于减少资源消耗并提高响应速度。 GNOME 3.38 还提供了许多额外的功能和改进。查看 GNOME 3.38 发行说明 以获得更多信息。 B-tree 文件系统 正如 之前宣布的 ,新安装的 Fedora 33 将默认使用 Btrfs 。每一个新的内核版本都会为

centos7安装ceph

时光毁灭记忆、已成空白 提交于 2020-11-01 14:27:33
一、CEPH 简介 ¶ 不管你是想为 云平台 提供 Ceph 对象存储 和/或 Ceph 块设备 ,还是想部署一个 Ceph 文件系统 或者把 Ceph 作为他用,所有 Ceph 存储集群 的部署都始于部署一个个 Ceph 节点 、网络和 Ceph 存储集群。 Ceph 存储集群至少需要一个 Ceph Monitor 和两个 OSD 守护进程。而运行 Ceph 文件系统客户端时,则必须要有元数据服务器( Metadata Server )。 Ceph OSDs : Ceph OSD 守护进程 ( Ceph OSD )的功能是存储数据,处理数据的复制、恢复、回填、再均衡,并通过检查其他OSD 守护进程的心跳来向 Ceph Monitors 提供一些监控信息。当 Ceph 存储集群设定为有2个副本时,至少需要2个 OSD 守护进程,集群才能达到 active+clean 状态( Ceph 默认有3个副本,但你可以调整副本数)。 Monitors : Ceph Monitor 维护着展示集群状态的各种图表,包括监视器图、 OSD 图、归置组( PG )图、和 CRUSH 图。 Ceph 保存着发生在Monitors 、 OSD 和 PG上的每一次状态变更的历史信息(称为 epoch )。 MDSs : Ceph 元数据服务器 ( MDS )为 Ceph 文件系统 存储元数据(也就是说