k8s对接外部ceph集群
为了部署有状态服务,单独给k8s部署了一套ceph块存储集群,本文记录了k8s集群对接外部ceph集群的方案和问题。期间,还是遇见不少坑,好在都解决了。 环境准备 我们使用的k8s和ceph环境见: https://blog.51cto.com/leejia/2495558 https://blog.51cto.com/leejia/2499684 静态持久卷 每次需要使用存储空间,需要存储管理员先手动在存储上创建好对应的image,然后k8s才能使用。 创建ceph secret 需要给k8s添加一个访问ceph的secret,主要用于k8s来给rbd做map。 1,在ceph master节点执行如下命令获取admin的经过base64编码的key(生产环境可以创建一个给k8s使用的专门用户): # ceph auth get-key client.admin | base64 QVFCd3BOQmVNMCs5RXhBQWx3aVc3blpXTmh2ZjBFMUtQSHUxbWc9PQ== 2,在k8s通过manifest创建secret # vim ceph-secret.yaml apiVersion: v1 kind: Secret metadata: name: ceph-secret data: key: