• 配置文件释义
    • QingCloud 云平台块存储
      • 硬盘类型与主机适配性
      • 各区应设置的 minSize, maxSize 和 stepSize 参数
      • QingCloud 各类型块存储的最低配额
    • QingStor NeonSAN
    • Ceph RBD
    • GlusterFS
    • NFS
    • Local Volume(仅限 all-in-one 部署测试使用)

    目前,Installer 支持以下类型的存储作为存储服务端,为 KubeSphere 提供持久化存储 (更多的存储类型持续更新中):

    • QingCloud 云平台块存储
    • QingStor NeonSAN
    • Ceph RBD
    • GlusterFS
    • NFS
    • Local Volume (仅限 all-in-one 部署测试使用)

    同时,Installer 集成了 QingCloud 云平台块存储 CSI 插件 和 QingStor NeonSAN CSI 插件,仅需在安装前简单配置即可对接 QingCloud 云平台块存储或 NeonSAN 作为存储服务,前提是需要有操作 QingCloud 云平台 资源的权限或已有 NeonSAN 服务端。

    Installer 也集成了 NFS、GlusterFS 和 Ceph RBD 这类存储的客户端,用户需提前准备相关的存储服务端,可参考 部署 Ceph RBD 存储服务端 或 部署 GlusterFS 存储服务端 然后在 vars.yml 配置对应的参数即可对接相应的存储服务端。

    Installer 对接的开源存储服务端和客户端,以及 CSI 插件,已测试过的版本如下:

    名称 版本 参考
    Ceph RBD Server v0.94.10 若用于测试部署可参考 部署 Ceph 存储服务端,如果是正式环境搭建请参考 Ceph 官方文档
    Ceph RBD Client v12.2.5 在安装 KubeSphere 前仅需在 vars.yml 配置相应参数即可对接其存储服务端,参考 Ceph RBD
    GlusterFS Server v3.7.6 若用于测试部署可参考 部署 GlusterFS 存储服务端, 如果是正式环境搭建请参考 Gluster 官方文档 或 Gluster Docs ,并且需要安装 Heketi 管理端 (v3.0.0)
    GlusterFS Client v3.12.10 在安装 KubeSphere 前仅需在 vars.yml 配置相应参数即可对接其存储服务端,配置详见 GlusterFS
    NFS Client v3.1.0 在安装 KubeSphere 前仅需在 vars.yml 配置相应参数即可对接其存储服务端,详见 NFS Client
    QingCloud-CSI v0.2.0.1 在安装 KubeSphere 前仅需在 vars.yml 配置相应参数,详见 QingCloud CSI
    NeonSAN-CSI v0.3.0 在安装 KubeSphere 前仅需在 vars.yml 配置相应参数,详见 Neonsan-CSI

    说明: 集群中不可同时存在两个默认存储类型,若要指定默认存储类型前请先确保当前集群中无默认存储类型。

    配置文件释义

    准备了满足要求的存储服务端后,只需要参考以下表中的参数说明,在 conf/vars.yml 中,根据您存储服务端所支持的存储类型,在配置文件的相应部分参考示例或注释修改对应参数,即可完成集群存储类型的配置。以下对 vars.yml 存储相关的参数配置做简要说明 (参数详解请参考 storage classes )。

    QingCloud 云平台块存储

    KubeSphere 支持使用 QingCloud 云平台块存储作为平台的存储服务,如果希望体验动态分配 (Dynamic Provisioning) 方式创建存储卷,推荐使用 QingCloud 云平台块存储,平台已集成 QingCloud-CSI 块存储插件支持对接块存储,仅需简单配置即可使用 QingCloud 云平台各种性能的块存储服务。

    QingCloud-CSI 块存储插件实现了 CSI 接口,并且支持 KubeSphere 使用 QingCloud 云平台的存储资源。块存储插件部署后,用户在 QingCloud 云平台可创建访问模式 (Access Mode) 为 单节点读写(ReadWriteOnce) 的存储卷并挂载至工作负载,包括以下几种类型:

    • 容量型
    • 基础型
    • SSD 企业型
    • 超高性能型
    • 企业级分布式块存储 NeonSAN

    注意:在 KubeSphere 集群内使用到性能型、超高性能型、企业型或基础型硬盘时,集群的主机类型也应与硬盘的类型保持一致。

    在安装 KubeSphere 时配置 QingCloud-CSI 插件的参数说明如下三个表所示,安装配置 QingCloud-CSI 插件和 QingCloud 负载均衡器插件都需要下载 API 密钥来对接 QingCloud API。

    QingCloud-API Description
    qingcloud_access_key_id ,
    qingcloud_secret_access_key
    通过QingCloud 云平台控制台 的右上角账户图标选择 API 密钥 创建密钥获得
    qingcloud_zone zone 应与 Kubernetes 集群所在区相同,CSI 插件将会操作此区的存储卷资源。例如:zone 可以设置为 sh1a(上海一区-A)、sh1b(上海1区-B)、 pek2(北京2区)、pek3a(北京3区-A)、gd1(广东1区)、gd2a(广东2区-A)、ap1(亚太1区)、ap2a(亚太2区-A)
    qingcloud_host QingCloud 云平台 api 地址,例如 api.qingcloud.com (若对接私有云则以下值都需要根据实际情况填写)
    qingcloud_port API 请求的端口,默认 https 端口 (443)
    qingcloud_protocol 网络协议,默认 https 协议
    qingcloud_uri URI 路径,默认值 iaas
    qingcloud_connection_retries API 连接重试时间 (默认 3 秒)
    qingcloud_connection_timeout API 连接超时时间 (默认 30 秒)

    vars.yml 中完成上表中的 API 相关配置后,再修改 QingCloud-CSI 配置安装 QingCloud 块存储插件。

    QingCloud-CSI Description
    qingcloud_csi_enabled 是否使用 QingCloud-CSI 作为持久化存储,是:true; 否:false
    qingcloud_csi_is_default_class 是否设定为默认的存储类型, 是:true;否:false
    注:系统中存在多种存储类型时,只能设定一种为默认的存储类型
    qingcloud_type QingCloud 云平台硬盘的类型
    性能型是 0
    容量型是 2
    超高性能型是 3
    企业级分布式块存储 NeonSAN 是 5
    基础型是 100
    SSD 企业型是 200
    详情见 QingCloud 官方文档
    qingcloud_minSize, qingcloud_maxSize 即单块硬盘的最小容量和最大容量,限制存储卷类型的存储卷容量范围,单位为 GiB
    qingcloud_stepSize 设置用户所创建存储卷容量的增量,单位为 GiB
    qingcloud_fsType 存储卷的文件系统,支持 ext3, ext4, xfs. 默认为 ext4
    disk_replica 硬盘的副本策略,支持单副本和多副本,1 表示单副本,2 表示多副本

    硬盘类型与主机适配性

    性能型硬盘 容量型硬盘 超高性能型硬盘 NeonSAN 硬盘 基础型硬盘 SSD 企业型硬盘
    性能型主机 - - -
    超高性能型主机 - - -
    基础型主机 - - -
    企业型主机 - - -

    各区应设置的 minSize, maxSize 和 stepSize 参数

    下表中的值对应的格式为:qingcloud_minSize - qingcloud_maxSize,qingcloud_stepSize。

    性能型硬盘 容量型硬盘 超高性能型硬盘 NeonSAN 硬盘 基础型硬盘 SSD 企业型硬盘
    北京2区 10 - 1000, 10 100 - 5000, 50 10 - 1000,10 - - -
    北京3区-A 10 - 2000, 10 100 - 5000, 50 10 - 2000,10 - - -
    广东1区 10 - 1000, 10 100 - 5000, 50 10 - 1000,10 - - -
    上海1区-A - 100 - 5000, 50 - 100 - 50000, 100 10 - 2000, 10 10 - 2000, 10
    亚太1区 10 - 1000, 10 100 - 5000, 50 - - - -
    亚太2区-A - 100 - 5000, 50 - - 10 - 2000, 10 10 - 2000, 10

    QingCloud 各类型块存储的最低配额

    注意,使用 QingCloud 云平台块存储作为存储服务,安装前需要确保用户账号在当前 Zone 资源配额满足最低要求。在没有配置安装 GitLab 和 Harbor 的前提下,Multi-node 安装最少需要 14 块硬盘,请参考以下的最低配额表核对您账号的存储配额,若硬盘数量和容量配额不够请提工单申请配额。

    注意,GitLab 和 Harbor 作为可选安装项,若安装前需要配置则需要考虑硬盘数量和容量的配额是否满足要求:Harbor 安装需要额外挂载 5 块硬盘,GitLab 安装需要额外挂载 4 块硬盘,若 KubeSphere 部署在云平台则需要考虑硬盘数量是否满足配额要求。

    最低配额 \ 硬盘类型 性能型硬盘 容量型硬盘 超高性能型硬盘 NeonSAN 硬盘 基础型硬盘 SSD 企业型硬盘
    块数 (块) / 容量 (GB) 14 / 230 14 / 1400 14 / 230 14 / 1400 14 / 230 14 / 230

    QingStor NeonSAN

    NeonSAN-CSI 插件支持对接青云自研的企业级分布式存储 QingStor NeonSAN 作为存储服务,若您准备好 NeonSAN 物理服务端后,即可在 conf/vars.yml 配置 NeonSAN-CSI 插件对接其存储服务端。详见 NeonSAN-CSI 参数释义。

    NeonSAN Description
    neonsan_csi_enabled 是否使用 NeonSAN 作为持久化存储,是:true;否:false
    neonsan_csi_is_default_class 是否设定为默认存储类型,是:true;否:false
    注:系统中存在多种存储类型时,只能设定一种为默认存储类型
    neonsan_csi_protocol NeonSAN 服务端传输协议,如 TCP 或 RDMA
    neonsan_server_address NeonSAN 服务端地址
    neonsan_cluster_name NeonSAN 服务端集群名称
    neonsan_server_pool Kubernetes 插件从哪个 pool 内创建存储卷,默认值为 kube
    neonsan_server_replicas NeonSAN image 的副本个数,默认为 1
    neonsan_server_stepSize 用户所创建存储卷容量的增量,单位为 GiB,默认为 1
    neonsan_server_fsType 存储卷的文件系统格式,默认为 ext4

    Ceph RBD

    Ceph RBD 是一个分布式存储系统,在 conf/vars.yml 配置的释义如下。

    Ceph_RBD Description
    ceph_rbd_enabled 是否使用 Ceph RBD 作为持久化存储,是:true;否:false
    ceph_rbd_storage_class 存储类型名称
    ceph_rbd_is_default_class 是否设定为默认存储类型, 是:true;否:false
    注:系统中存在多种存储类型时,只能设定一种为默认存储类型
    ceph_rbd_monitors 根据 Ceph RBD 服务端配置填写,可参考 Kubernetes 官方文档
    ceph_rbd_admin_id 能够在存储池中创建的客户端 ID ,默认: admin,可参考 Kubernetes 官方文档
    ceph_rbd_admin_secret Admin_id 的 secret,安装程序将会自动在 kube-system 项目内创建此 secret,可参考 Kubernetes 官方文档
    ceph_rbd_pool 可使用的 Ceph RBD 存储池,可参考 Kubernetes 官方文档
    ceph_rbd_user_id 用于映射 RBD 的 ceph 客户端 ID 默认: admin,可参考 Kubernetes 官方文档
    ceph_rbd_user_secret User_id 的 secret,需注意在所使用 rbd image 的项目内都需创建此 Secret,可参考 Kubernetes 官方文档
    ceph_rbd_fsType 存储卷的文件系统,kubernetes 支持 fsType,默认:ext4,可参考 Kubernetes 官方文档
    ceph_rbd_imageFormat Ceph RBD 格式,默认:”1”,可参考 Kubernetes 官方文档
    ceph_rbd_imageFeatures ceph_rbd_imageFormat 字段不为 1 时需填写此字段,可参考 Kubernetes 官方文档

    注: 存储类型中创建 secret 所需 ceph secret 如 ceph_rbd_admin_secretceph_rbd_user_secret 可在 ceph 服务端通过以下命令获得:

    1. $ ceph auth get-key client.admin

    GlusterFS

    GlusterFS 是一个开源的分布式文件系统,配置时需提供 heketi 所管理的 glusterfs 集群,在 conf/vars.yml 配置的释义如下。

    GlusterFS Description
    glusterfs_provisioner_enabled 是否使用 GlusterFS 作为持久化存储,是:true;否:false
    glusterfs_provisioner_storage_class 存储类型的名称
    glusterfs_is_default_class 是否设定为默认存储类型,是:true;否:false
    注:系统中存在多种存储类型时,只能设定一种为默认存储类型
    —- —- glusterfs_provisioner_resturl Heketi 服务 url,参数配置请参考 Kubernetes 官方文档 glusterfs_provisioner_clusterid Heketi 服务端输入 heketi-cli cluster list 命令获得,参数配置请参考 Kubernetes 官方文档
    glusterfs_provisioner_restauthenabled Gluster 启用对 REST 服务器的认证,参数配置请参考 Kubernetes 官方文档
    glusterfs_provisioner_resturl Heketi 服务端 url,参数配置请参考 Kubernetes 官方文档
    glusterfs_provisioner_clusterid Gluster 集群 id,登录 heketi 服务端输入 heketi-cli cluster list 得到 Gluster 集群 id,参数配置请参考 Kubernetes 官方文档
    glusterfs_provisioner_restuser 能够在 Gluster pool 中创建 volume 的 Heketi 用户,参数配置请参考 Kubernetes 官方文档
    glusterfs_provisioner_secretName secret 名称,安装程序将会在 kube-system 项目内自动创建此 secret,参数配置请参考 Kubernetes 官方文档
    glusterfs_provisioner_gidMin glusterfs_provisioner_storage_class 中 GID 的最小值,参数配置请参考 Kubernetes 官方文档
    glusterfs_provisioner_gidMax glusterfs_provisioner_storage_class 中 GID 的最大值,参数配置请参考 Kubernetes 官方文档
    glusterfs_provisioner_volumetype Volume 类型,参数配置请参考 Kubernetes 官方文档
    jwt_admin_key heketi 服务器中 /etc/heketi/heketi.json 的 jwt.admin.key 字段

    注: Glusterfs 存储类型中所需的 glusterfs_provisioner_clusterid 可在 glusterfs 服务端通过以下命令获得:

    1. $ export HEKETI_CLI_SERVER=http://localhost:8080
    2. $ heketi-cli cluster list

    NFS

    NFS 即网络文件系统,它允许网络中的计算机之间通过 TCP/IP 网络共享资源。需要预先准备 NFS 服务端,本方法可以使用 QingCloud 云平台 vNAS 作为 NFS 服务端。在 conf/vars.yml 配置的释义如下。

    关于在安装前如何配置 QingCloud vNas,本文档在 常见问题 - 安装前如何配置 QingCloud vNas 给出了一个详细的示例供参考。

    NFS Description
    nfs_client_enable 是否使用 NFS 作为持久化存储,是:true;否:false
    nfs_client_is_default_class 是否设定为默认存储类型,是:true;否:false
    注:系统中存在多种存储类型时,只能设定一种为默认存储类型
    nfs_server 允许其访问的 NFS 服务端地址,可以是 IP 或 Hostname
    nfs_path NFS 共享目录,即服务器上共享出去的文件目录,可参考 Kubernetes 官方文档

    Local Volume(仅限 all-in-one 部署测试使用)

    Local Volume 表示挂载的本地存储设备,如磁盘、分区或目录,仅支持在 all-in-one 模式安装时使用 Local Volume,由于该类型暂不支持动态分配,因此仅建议用于测试部署,方便初次安装和体验。在 conf/vars.yml 配置的释义如下。

    Local Volume Description
    local_volume_provisioner_enabled 是否使用 local volume 作为持久化存储, 是:true;否:false
    local_volume_provisioner_storage_class 存储类型的名称, 默认:local
    local_volume_is_default_class 是否设定为默认存储类型, 是:true;否:false
    注:系统中存在多种存储类型时,只能设定一种为默认的存储类型

    说明: 在您配置好 Local Volume (只有 all-in-one 支持这类存储) 并成功安装 KubeSphere 后,可参阅 Local Volume 使用方法。