nova

云计算OpenStack核心组件---cinder存储服务(10)

时光怂恿深爱的人放手 提交于 2019-12-01 08:53:30
一、 二、 三、安装和配置cinder服务( Block Storage service ) (一)在控制节点配置 1、创建cinder数据库及用户 [root@ren3 ~]# mysql -uroot -proot MariaDB [(none)]> create database cinder; MariaDB [(none)]> GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'localhost' \ IDENTIFIED BY 'CINDER_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'%' \ IDENTIFIED BY 'CINDER_DBPASS'; 2、创建cinder服务 (1)创建cinder用户 [root@ren3 ~]# source openrc [root@ren3 ~]# openstack user create --domain default --password=cinder cinder +---------------------+----------------------------------+ | Field | Value | +---------------------+-----

openstack 常用命令

廉价感情. 提交于 2019-12-01 05:39:05
nova篇 # 列出当前租户的所有虚拟机: nova list # 列出所有租户的虚拟机(需要管理员权限): nova list --all-tenants # 查看一个虚拟机的详细信息: nova show <serverName-Or-Id> # 删除一个虚拟机: nova delete <serverName-Or-Id> # 关闭虚拟机: nova stop <serverName-Or-Id> # 软重启虚拟机: nova reboot <serverName-Or-Id> # 硬重启虚拟机: nova reboot --hard <serverName-Or-Id> # 重置虚拟机状态: nova reset-state <serverName-Or-Id> # 列出所有的Nova服务: nova service-list # 列出所有的flavor: nova flavor-list # 列出所有image: nova image-list # 热迁移虚拟机: nova live-migration <serverName-Or-Id> neutron篇 neutron floatingip-list --all-tenants # 查看浮动ip 来源: https://www.cnblogs.com/du-z/p/11660691.html

openstack 在线迁移(live-migration)的配置

南楼画角 提交于 2019-12-01 03:52:09
今天花了大概一天白天的时间把openstack的在线迁移(live-migration)配好了,效果非常不错,在迁移过程中基本没有出现暂停的过程。下面是我的配置过程,有问题的大家指出一下,一起学习学习。 首先得说明一下我的openstack集群环境,我的部署架构是参照一个国外的人的部署的架构部署的,不熟过程在我的上一篇blog上。以下是节点的IP地址: controler(ubuntu 12.10): 192.168.100.51(与集群中其他的节点通信),10.6.12.60(外部可访问的地址) compute0 (ubuntu 12.10) : 192.168.100.56 compute3 (ubuntu 12.10) : 192.168.100.57 network (ubuntu 12.10) : 192.168.100.52 注意:确保每个节点都能用名称解析,即hosts文件中要有对应的IP与服务器名 1.安装NFS服务器 由于迁移(migrate)需要用到共享存储,所以我们必须得配置一个能够被compute节点共同使用的存储服务。共享存储服务有很多种,也不只限于NFS服务。但是考虑到NFS的方便性,我采用了NFS。我选择在controler节点上配置一个NFS服务,用apt-get安装: apt-get install nfs-kernel-server 安装后

openstack对接gluster流程

坚强是说给别人听的谎言 提交于 2019-11-30 06:00:50
在已经部署好的gluster集群里创建相应的卷,可参考https://my.oschina.net/u/857184/blog/1506552 mkdir -p /data/brickl/image mkdir -p /data/brickl/instance mkdir -p /data/brickl/volume 以下操作在任意一个节点执行即可: gluster volume create images replica 2 gluster-server1:/data/brickl/image gluster-server2:/data/brickl/image gluster volume create instances replica 2 gluster-server1:/data/brickl/instance gluster-server2:/data/brickl/instance gluster volume create volumes replica 2 gluster-server1:/data/brickl/volume gluster-server2:/data/brickl/volume gluster volume start images gluster volume start instances gluster volume start

Openstack对接ceph存储

ぃ、小莉子 提交于 2019-11-30 02:46:48
在工作上的一些笔记,备注一下: 前期工作: 已经部署openstack 集群, 当时操作版本icehouse版本 已经部署ceph的集群, 当时操作的版本ceph-0.94.10,其它版本也可以 从ceph集群其中和个节点获取相关配置文件, openstack的存储服务操作ceph时需要用到: ceph.client.admin.keyring ceph.conf 对集群进行互信操作 在openstack各个节点安装ceph相关的依赖包: yum -y install ceph 将刚才获取到的两个配置文件 ceph.client.admin.keyring ceph.conf 分配传到各个节点的/etc/ceph目录 创建openstack会用到的存储池, 'volumes', 'images', 'vms' (只需在其中一台节点执行以下命令即可) ceph osd pool create images 1024 ceph osd pool create vms 1024 ceph osd pool create volumes 1024 设置ceph客户端认证,在其中一个openstack节点执行以下命令: ceph auth get-or-create client.cinder mon 'allow r' osd 'allow class-read object_prefix

openstack-nova之源码阅读流程

依然范特西╮ 提交于 2019-11-29 21:13:21
以创建虚拟机为例 1.项目入口setup.cfg文件 2.根据nova-compute = nova.cmd.compute:main找到功能入口 3.nova/api/openstack/compute/servers.py中create(self, req, body)中进行rpc调用 4.进去nova/compute/api.py中create()方法,其中进行实例调用self._create_instance() 5.进入nova/compute/api中_create_instance()方法,其中进行rpc调用schedule_and_build_instance()方法 6.进入nova/conductor/api.py中schedule_and_build_instances()方法,其中进行rpc调用schedule_and_build_instances()方法 7.进入nova/conductor/rpcapi.py中schedule_and_build_instances()方法,其中使用rpc异步方式调用scheduler_and_build_instance()方法 8.根据scheduler_and_build_instance异步跳转至nova/conductor/manager.py中scheduler_and_build_instance()方法

openstack部署篇

一世执手 提交于 2019-11-29 19:11:01
openstack安装部署 本文介绍的是安装rock版本的openstack,最小化安装用到的组件 keystone(认证) glance(镜像) neutron(网络) nova(计算) dashboard(也叫horizon提供web ui服务) 系统版本:CentOS7.4 控制节点地址 计算节点地址 eht0(10.167.130.208)    eth1(192.168.122.8) eth0(10.167.130.209)     eth1(192.168.122.9) 密码名称 描述 数据库密码(未使用变量) 数据库的root密码 ADMIN_PASS 用户密码 admin CINDER_DBPASS 块存储服务的数据库密码 CINDER_PASS Block Storage服务用户的密码 cinder DASH_DBPASS 仪表板的数据库密码 DEMO_PASS 用户密码 demo GLANCE_DBPASS 图像服务的数据库密码 GLANCE_PASS 图像服务用户的密码 glance KEYSTONE_DBPASS 身份服务的数据库密码 METADATA_SECRET 元数据代理的秘密 NEUTRON_DBPASS 网络服务的数据库密码 NEUTRON_PASS 网络服务用户的密码 neutron NOVA_DBPASS 计算服务的数据库密码 NOVA

Openstack安装部署

こ雲淡風輕ζ 提交于 2019-11-29 19:10:06
系统版本 rhel7.4 关闭 iptables 关闭 selinux foundation1: 172.25.254.1 server1: 172.25.254.11 server2: 172.25.254.12 可参考: https://docs.openstack.org/mitaka/zh_CN/install-guide-rdo/ //选择的mitaka 虚拟机上网 首先物理机必须可以上网, [root@foundation1 Desktop]# iptables -t nat -I POSTROUTING -s 172.25.254.0/24 -j MASQUERADE //允许虚拟机所在的网段 [root@foundation1 Desktop]# iptables -t nat -nL //查看防火墙策略 server1和server2均操作: [root@server2 ~]# route add default gw 172.25.254.1 [root@server2 ~]# route -n [root@server2 ~]# vim /etc/resolv.conf nameserver 114.114.114.114 [root@server2 ~]# ping baidu.com //此时可以上网了 挂载镜像 下载rhel7.4的镜像和mitaka

Openstack架构知识总结

青春壹個敷衍的年華 提交于 2019-11-29 12:04:01
OpenStack既是一个社区,也是一个项目和一个开源软件,提供开放源码软件,建立公共和私有云,它提供了一个部署云的操作平台或工具集,其宗旨在于:帮助组织运行为虚拟计算或存储服务的云,为公有云、私有云,也为大云、小云提供可扩展的、灵活的云计算。 OpenStackd开源项目由社区维护,包括OpenStack计算(代号为Nova),OpenStack对象存储(代号为Swift),并OpenStack镜像服务(代号Glance)的集合。 OpenStack提供了一个操作平台,或工具包,用于编排云。 下面列出Openstack的详细构架图 Openstack的网络拓扑结构图 整个OpenStack是由控制节点,计算节点,网络节点,存储节点四大部分组成。(这四个节点也可以安装在一台机器上,单机部署) 其中: 控制节点负责对其余节点的控制,包含虚拟机建立,迁移,网络分配,存储分配等等 计算节点负责虚拟机运行 网络节点负责对外网络与内网络之间的通信 存储节点负责对虚拟机的额外存储管理等等 控制节点架构: 控制节点包括以下服务 管理支持服务 基础管理服务 扩展管理服务 1)管理支持服务包含MySQL与Qpid两个服务 MySQL:数据库作为基础/扩展服务产生的数据存放的地方 Qpid:消息代理(也称消息中间件)为其他各种服务之间提供了统一的消息通信服务 2)基础管理服务包含Keystone

8.28

自作多情 提交于 2019-11-28 19:55:18
nova/api/openstack/compute/servers.py nova/compute/api.py nova/conductor/api.py nova/conductor/rpcapi.py nova/conductor/manager.py nova/compute/rpcapi.py nova/compute/manager.py nova/virt/libvirt/driver.py nova/virt/libvirt/guest.py nova/virt/libvirt/host.py ServersController create() API create() _create_instance() ComputeTaskAPI schedule_and_build_instances() ComputeTaskAPI schedule_and_build_instances(消息) ComputerTaskManager schedule_and_build_instances() ComputeAPI build_and_run_instance(消息) ComputeManager build_and_run_instance() _do_build_and_run_instance() ComputeDriver父类 spawn()