nova

openstack(train版)“nova-status upgrade check”报错:Forbidden: Forbidden (HTTP 403)

只谈情不闲聊 提交于 2019-12-10 15:29:15
部署openstack train版,在部署完nova项目时,进行检查,执行 nova-status upgrade check 返回报错信息如下: [root@controller ~]# nova-status upgrade check Error: Traceback (most recent call last): File "/usr/lib/python2.7/site-packages/nova/cmd/status.py", line 398, in main ret = fn(*fn_args, **fn_kwargs) File "/usr/lib/python2.7/site-packages/oslo_upgradecheck/upgradecheck.py", line 102, in check result = func(self) File "/usr/lib/python2.7/site-packages/nova/cmd/status.py", line 164, in _check_placement versions = self._placement_get("/") File "/usr/lib/python2.7/site-packages/nova/cmd/status.py", line 154, in _placement

Openstack从入门到放弃

◇◆丶佛笑我妖孽 提交于 2019-12-08 13:56:37
目录 云计算归档: 1.了解: 2.KVM命令: 3.云技术基础架构服务平台搭建 3.1基础环境搭建: 3.2控制节点安装glance镜像服务 3.3控制节点安装nova计算服务控制端 3.4计算节点安装nova计算服务agent端 3.5控制节点安装neutron网络服务 3.6计算节点安装neutron网络服务 3.7在计算节点上安装dashboard服务 3.8增加一个计算节点 compute2--->ip:10.0.0.32 3.9glance镜像服务的迁移 4.0安装cinder块存储服务 4.1增加flat网段 4.2cinder对接nfs后端存储 4.2.1cinder对接Glusterfs存储 4.3实例的冷迁移 4.4cloud-init为云环境中虚拟机的初始化定制【配置元数据代理】 @ 云计算归档: 1.了解: linux 网卡bond 2.KVM命令: 1.日常管理: virsh list virsh list --all virsh start centos7 #启动服务器 virsh shutdown centos7 #关机比较慢 virsh destroy centos7 #强制关机 virsh reboot centos7 #重启 virsh undefine centos7_1 #删除的是系统的配置文件 virsh define vm_centos7

远程debug调试(eclipse)之openstack windows

浪子不回头ぞ 提交于 2019-12-07 14:30:04
http://pydev.org/updates http://www.pydev.org/manual_adv_remote_debugger.html 源调试代码中加入远程debug代码: 1、将安装有pydev插件的eclipse的文件夹搜索到 pydevd.py文件,复制到目标主机的python路径下。 eclipse/plugins/org.python.pydev_x.x.x/pysrc/pydevd.py vim /usr/lib/python2.7/site-packages/pysrc.pth 测试import pydevd vim /usr/lib/python2.7/site-packages/nova/compute/api.py 此处发现eclipse并没有进入到get_all 断点调试的代码处,而是保存没有改pid进程,这是因为nova底层代码 使用的eventlet多线程(协程)导致,解决此问题参考如下: grep -rn ' eventlet.monkey_patch ' /usr/lib/python2.6/site-packages/nova vim /usr/lib/python2.6/site-packages/nova/cmd/__init__.py 将 import eventlet from nova import debugger

Ceph学习笔记2-在Kolla-Ansible中使用Ceph后端存储

久未见 提交于 2019-12-07 14:03:28
环境说明 使用 Kolla-Ansible 请参考《使用 Kolla-Ansible 在 CentOS 7 单节点上部署 OpenStack Pike 》; 部署 Ceph 服务请参考《 Ceph 学习笔记 1 - Mimic 版本多节点部署》。 配置Ceph 以 osdev 用户登录: $ ssh osdev@osdev01 $ cd /opt/ceph/deploy/ 创建Pool 创建镜像Pool 用于保存 Glance 镜像: $ ceph osd pool create images 32 32 pool 'images' created 创建卷Pool 用于保存 Cinder 的卷: $ ceph osd pool create volumes 32 32 pool 'volumes' created 用于保存 Cinder 的卷备份: $ ceph osd pool create backups 32 32 pool 'backups' created 创建虚拟机Pool 用于保存虚拟机系统卷: $ ceph osd pool create vms 32 32 pool 'vms' created 查看Pool $ ceph osd lspools 1 .rgw.root 2 default.rgw.control 3 default.rgw.meta 4

ceph rbd与openstack的结合

混江龙づ霸主 提交于 2019-12-06 23:15:08
openstack通过libvirt调用qemu来启动具体的虚拟机,qemu通过librbd这个库与librados通信,而librados是ceph集群的统一API库,这样一来openstack就与ceph rbd联系起来了。具体调用流程如下图所示: 需要在ceph端进行的操作如下: 1、为ceph client创建一系列可用的pools。 根据ceph client的需求及其分类,为client创建一系列的pools。创建pools需要根据当前集群中OSDs的数量合理的分配PGs数量以及对象复制的个数。 #ceph osd pool create volumes 128 创建一个名字为volumes的pool且该pool中的PGs数量为128; #ceph osd pool create images 128 #ceph osd pool create vms 128 2、为ceph client创建一系列用户及其使用集群的权限。 ceph client不同的用户对集群有不同的使用要求,因此需要根据client用户的实际需求为其设置访问集群的权限。 #ceph auth get-or-create client.cinder mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx

nova安装与配置

元气小坏坏 提交于 2019-12-06 10:34:50
一、实验目的: 1 、理解 nova 服务在 OpenStack 中的作用 2 、掌握在控制节点上安装配置 nova 的方法和步骤 3 、掌握在计算节点上安装与配置 nova 的方法和步骤 二、实验步骤: 1 、在 controller 节点上为 nova 创建数据库,并创建管理账号,参考命令 建立 nova 的数据库:    #mysql -u root -p (用数据库连接客户端以 root 用户连接到数据库服务器)    #CREATE DATABASE nova_api;    #CREATE DATABASE nova; (创建 nova_api 和 nova 数据库:) #CREATE DATABASE nova_cell0; 对数据库进行正确的授权:    #GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' \ IDENTIFIED BY ' 密码 ';    #GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' \ IDENTIFIED BY ' 密码 ';    #GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' \ IDENTIFIED BY ' 密码 ';    #GRANT ALL

openstack实战部署

时光怂恿深爱的人放手 提交于 2019-12-06 06:32:23
简介:Openstack系统是由几个关键服务组成,他们可以单独安装,这些服务根据你的云需求工作在一起,这些服务包括计算服务、认证服务、网络服务、镜像服务、块存储服务、对象存储服务、计量服务、编排服务和数据库服务。可以独立安装这些服务、肚子配置他们、或者连接成一个整体。 #所有节点修改ip,主机名和hosts解析 # controller 10.0.0.11 controller # compute1 10.0.0.31 compute1 #所有节点准备本地repo源 rm -fr /etc/yum.repos.d/local.repo cd /opt/ rz -E tar xf openstack_rpm.tar.gz mount /dev/cdrom /mnt echo "mount /dev/cdrom /mnt" >>/etc/rc.local chmod +x /etc/rc.local echo '[openstack] name=openstack baseurl=file:///opt/repo gpgcheck=0 [local] name=local baseurl=file:///mnt gpgcheck=0' >/etc/yum.repos.d/openstack.repo #时间同步 controller节点ntp服务端: vim /etc/chrony

OpenStack集成ceph

房东的猫 提交于 2019-12-06 00:32:01
openstack组件集成ceph OpenStack集成ceph详细过程可以查看ceph官方文档: ceph document OpenStack Queens版本,1台控制节点controller,1台计算节点compute; 1. 创建存储池 Glance:Glance可以把镜像存储在Ceph上; Cinder:Cinder负责管理volume,把volume挂载给instance使用或者直接从volume启动instance。集成Ceph后可以让Cinder在Ceph上创建volume; Nova:在OpenStack Havana版本开始,Nova可以直接把instance的disk存放在Ceph上。 在Ceph集群上总共创建3个存储池,分别给Glance,Cinder和Nova使用; backups: 存放备份文件 2. 配置OpenStack的ceph客户端 2.1. 拷贝ceph.conf 把Ceph的配置文件/etc/ceph/ceph.conf拷贝到2台OpenStack节点上,控制节点和计算节点都需要,因为他们都要跟Ceph通信。 ssh {your-openstack-server} sudo tee /etc/ceph/ceph.conf </etc/ceph/ceph.conf 注意: 运行着 glance-api 、 cinder-volume 、

Rsyslog收集应用日志

蓝咒 提交于 2019-12-05 22:37:07
收集系统其它服务日志,在客户端node1 上操作,示例以openstack-nova 服务的日志为例: 1.先修改配置文件 /etc/rsyslog.conf,完整内容如下: [root@node1 ~]# egrep -v '^#|^$' /etc/rsyslog.conf $ModLoad imuxsock # provides support for local system logging (e.g. via logger command) $ModLoad imjournal # provides access to the systemd journal $ModLoad immark # provides --MARK-- message capability $WorkDirectory /var/lib/rsyslog $ActionFileDefaultTemplate RSYSLOG_TraditionalFileFormat $IncludeConfig /etc/rsyslog.d/*.conf $OmitLocalLogging on $IMJournalStateFile imjournal.state *.info;mail.none;authpriv.none;cron.none @@192.168.30.67 authpriv.* /var