kvm

docker是PaaS,与openstack是IaaS的关系

青春壹個敷衍的年華 提交于 2020-05-01 04:39:33
个人理解Docker的每一个虚机其实是宿主操作系统中的一个进程。主要是一种虚拟化技术。OpenStack主要解决的是基础架构云的云服务问题。OpenStack是在虚拟化技术之上的一层,主要解决系统部署管理的自动化。OpenStack可以兼容多种虚拟化技术包括:PowerVM, KVM, VMware, Docker等。 openstack是Iaas,是管理IT资源的,利用openstack和计算,存储,网络资源池化,然后以很灵活的方式分配最终用户。 docker是一种软件包的集成技术。有点类似现实中的集装箱。 openstack本身可以使用docker技术去封装,去实施。 openstack管理的虚机中可以使用docker去部署各种开发环境。 Docker与OpenStack 类别 Docker OpenStack 应用平台 PaaS IaaS 部署难度 简单 复杂 执行性能 和物理性能几乎一致 vm会占用资源 镜像体积 MB GB 管理效率 简单 复杂 隔离性能 较高 彻底隔离 可管理性 单进程,较弱 完整的管理系统 网络连接 较弱 Neutron灵活组件网络 启动速度 极快 稍慢 openstack在硬件资源的管理方面已经比较成熟了: 单机的虚拟化技术优化 计算:kvm用的最多,已经非常成熟了;目前的一些重点在虚机热迁移的优化上。 存储/网络:SR-IOV或者vhost-net

Bridge (br0) Network on Linux

我与影子孤独终老i 提交于 2020-05-01 04:39:05
动手实践虚拟网络 - 每天5分钟玩转 OpenStack(10) - CloudMan - 博客园 https://www.cnblogs.com/CloudMan6/p/5296573.html linux中KVM桥接网卡br0 - mergerly的专栏 - CSDN博客 https://blog.csdn.net/mergerly/article/details/38422833 libvirt kvm 虚拟机上网 - Bridge桥接 - 东东东 陈煜东的博客 https://www.chenyudong.com/archives/libvirt-kvm-bridge-network.html linux下brctl配置网桥 - ilinux_one - 博客园 https://www.cnblogs.com/ilinuxer/p/6629323.html How To Setup Bridge (br0) Network on Ubuntu Linux 14.04 and 16.04 LTS - nixCraft https://www.cyberciti.biz/faq/how-to-create-bridge-interface-ubuntu-linux/ Linux 网桥配置命令:brctl - 百度文库 https://wenku.baidu.com/view

KVM (虚拟机创建及管理,存储管理)

一笑奈何 提交于 2020-05-01 04:07:05
#<font color=red>创建KVM虚拟机</font> ###1.图形化界面创建 第一步:查看软件包组 yum grouplist 第二步:下载GUI界面的软件包组 yum groupinstall "Server with GUI" 第三步:进入图形化界面 startx ###2.复制镜像文件 复制镜像文件到 /var/lib/libvirt/images/ /var/lib/libvirt/images/: CentOS-7-x86_64-DVD-1611.iso ###3.可以创建虚拟机了 找到virt-manager工具并安装虚拟机 #<font color=red>命令行下创建 && 管理虚拟机</font> Virt-install: 命令行下创建虚拟机的命令,不过在它后面需要跟上很多的参数 --name: 虚拟机的名字。 --disk Location: 磁盘映像的位置。 --graphics : 怎样连接 VM ,通常是 SPICE 。 --vcpu : 虚拟 CPU 的数量。 --ram : 以兆字节计算的已分配内存大小。 --location : 指定安装源路径 --network : 指定虚拟网络,通常是 virbr0 或者自己设定的 br0 #例如: virt-install --name=test --disk path=/export/kvm

LVM 类型的 Storage Pool

只愿长相守 提交于 2020-05-01 03:52:53
LVM 类型的 Storage Pool 不仅一个文件可以分配给客户机作为虚拟磁盘,宿主机上 VG 中的 LV 也可以作为虚拟磁盘分配给虚拟机使用。 不过,LV 由于没有磁盘的 MBR 引导记录,不能作为虚拟机的启动盘,只能作为数据盘使用。 这种配置下,宿主机上的 VG 就是一个 Storage Pool,VG 中的 LV 就是 Volume。 LV 的优点是有较好的性能;不足的地方是管理和移动性方面不如镜像文件,而且不能通过网络远程使用。 下面举个例子。 首先,在宿主机上创建了一个容量为 10G 的 VG,命名为 HostVG。 然后创建了一个 Storage Pool 的定义文件 /etc/libvirt/storage/HostVG.xml,内容为 然后通过 virsh 命令创建新的 Storage Pool “HostVG” 并启用这个 HostVG 现在我们可以在 virt-manager 中为虚机 kvm1 添加 LV 的虚拟磁盘了。 点击 Browse 可以看到 HostVG 已经在 Stroage Pool 的列表中了,选择 HostVG 为 volume 命名为 newlv 并设置大小 100MB 点击 Finish,newlv 创建成功 点击 Choose Volume 点击 Finish 确认将 newlv 作为 volume 添加到 kvm1 新

KVM 存储虚拟化

有些话、适合烂在心里 提交于 2020-05-01 03:38:59
KVM 的存储虚拟化是通过存储池(Storage Pool)和卷(Volume)来管理的。 Storage Pool 是宿主机上可以看到的一片存储空间,可以是多种类型,后面会详细讨论。Volume 是在 Storage Pool 中划分出的一块空间,宿主机将 Volume 分配给虚拟机,Volume 在虚拟机中看到的就是一块硬盘。 下面我们学习不同类型的 Storage Pool 目录类型的 Storage Pool 文件目录是最常用的 Storage Pool 类型。 KVM 将宿主机目录 /var/lib/libvirt/images/ 作为默认的 Storage Pool。 那么 Volume 是什么呢? 答案就是该目录下面的文件了,一个文件就是一个 Volume。 大家是否还记得我们之前创建第一个虚机 kvm1 的时候,就是将镜像文件 cirros-0.3.3-x86_64-disk.img 放到了这个目录下。文件 cirros-0.3.3-x86_64-disk.img 也就是Volume,对于 kvm1 来说,就是它的启动磁盘了。 那 KVM 是怎么知道要把 /var/lib/libvirt/images 这个目录当做默认 Storage Pool 的呢? 实际上 KVM 所有可以使用的 Storage Pool 都定义在宿主机的 /etc/libvirt

解决 docker: Error response from daemon: ... : net/http: TLS handshake timeout.

我的未来我决定 提交于 2020-04-29 13:31:14
问题:docker拉取最新竟像时:sudo docker pull tensorflow/serving:latest-gpu 出现报错: Error response from daemon: Get https://registry-1.docker.io/v2/tensorflow/serving/manifests/latest-gpu: Get https://auth.docker.io/token?scope=repository%3Atensorflow%2Fserving%3Apull&service=registry.docker.io: net/http: TLS handshake timeout ai-serving@aiserving-KVM:~$ sudo docker pull tensorflow/serving:latest-gpu Error response from daemon: Get https://registry-1.docker.io/v2/: net/http: TLS handshake timeout 解决办法: 使用国内的Docker仓库daocloud: $ echo "DOCKER_OPTS=\"\$DOCKER_OPTS --registry-mirror=http://f2d6cb40.m.daocloud.io

脚本安装OpenStack M版

北城余情 提交于 2020-04-28 08:32:42
系统环境准备 官网地址: 点击这里 官方文档: 点击这里 环境规划: 主机名 ip地址 虚拟化 内存 磁盘 系统版本 openstack 10.0.0.11 kvm 4G 挂载本地磁盘 centos7.6 软件包下载地址: https://pan.baidu.com/s/1tCWEy4idmOi94nSCJXxc5g 提取码: 5rl0 这里我们需要先挂载镜像否则脚本无法执行 安装OpenStack 注: 这里我们需要把包放在root目录下 #软件包介绍 [root@openstack ~ ]# ll total 254716 -rw-------. 1 root root 1392 Apr 19 2019 anaconda- ks.cfg -rw-r--r-- 1 root root 13287936 Dec 25 2016 cirros- 0.3 . 4 -x86_64- disk.img -rw-r--r-- 1 root root 26505 Nov 21 2017 local_settings -rw-r--r-- 1 root root 6388 Oct 28 16 : 05 openstack_compute_install. sh <-- 从节点脚本 -rw-r--r-- 1 root root 22917 May 21 2019 openstack-mitaka

脚本安装OpenStack M版

流过昼夜 提交于 2020-04-28 08:01:31
系统环境准备 官网地址: 点击这里 官方文档: 点击这里 环境规划: 主机名 ip地址 虚拟化 内存 磁盘 系统版本 openstack 10.0.0.11 kvm 4G 挂载本地磁盘 centos7.6 软件包下载地址: https://pan.baidu.com/s/1tCWEy4idmOi94nSCJXxc5g 提取码: 5rl0 这里我们需要先挂载镜像否则脚本无法执行 安装OpenStack 注: 这里我们需要把包放在root目录下 #软件包介绍 [root@openstack ~ ]# ll total 254716 -rw-------. 1 root root 1392 Apr 19 2019 anaconda- ks.cfg -rw-r--r-- 1 root root 13287936 Dec 25 2016 cirros- 0.3 . 4 -x86_64- disk.img -rw-r--r-- 1 root root 26505 Nov 21 2017 local_settings -rw-r--r-- 1 root root 6388 Oct 28 16 : 05 openstack_compute_install. sh <-- 从节点脚本 -rw-r--r-- 1 root root 22917 May 21 2019 openstack-mitaka

cloudstack4.11 centos7 安装文档

萝らか妹 提交于 2020-04-28 06:59:11
centos 7.x cloudstack 4.11 提示:生产环境 建议用ceph 块存储为主存储, 这里测试使用的是nfs主存储 组件 172.16.19.116 cloudstack-management nfs,mysql,cloudstack-management 172.16.19.170 cloudstack-agent kvm, cloudstack-agent 准备网段: 172.16.17.50-100 255.255.252.0 172.16.16.1 ###cloudstack-management 1、系统基础配置 # hostnamectl set -hostname cloudstack-management //安装ntp # yum install ntp # systemctl enable ntpd && systemctl start ntpd //关闭防火墙 #systemctl stop firewalld && systemctl disable firewalld && setenforce 0 #vim /etc/selinux/config SELINUX=permissive SELINUXTYPE=targeted //配置yum源 #vim /etc/yum.repos.d/cloud.repo [cloudstack]

kvm常用操作

二次信任 提交于 2020-04-27 19:21:18
kvm常用操作 # 创建qcow2文件 qemu-img create -f qcow2 demo.qcow2 200G ​ # 挂载盘 attach-disk gz-demo /datafs2/vm/gz-demo/demo.qcow2 vdc --subdriver qcow2 --config ​ #修改内存大小 virsh setmaxmem 64G demo --config ​ #修改cpu核数 virsh setvcpus demo 8 --config ​ #重启 virsh reboot demo ​ #导出虚拟机配置文件 virsh dumpxml demo > demo.xml ​ #导入虚拟机配置文件 virsh define demo.xml ​ 虚拟机停机迁移步骤 从原宿主导出虚拟机配置文件. virsh dumpxml demo > demo.xml 目标宿主导入虚拟机配置文件 virsh define demo.xml 关闭原虚拟机,拷贝原有路径虚拟机文件,如果目录有变更,需要编辑修改磁盘文件路径 virsh shutdown demo scp demo ${detination}:/data/ 出现CPU不支持报错 error: unsupported configuration: guest and host CPU are not