Ceph 12.2.0 正式版本发布, 代号 Luminous

综合分类评论2,692字数 2209阅读模式

Ceph 是一个可扩展的分布式存储系统,性能卓越,安全可靠。 Ceph 12.2.0 正式版已发布。这是Luminous v12.2.x长期稳定版本的第一个版本。在Kraken(v11.2.z)和 Jewel(v10.2.z)后我们做了很多重大修改,而且升级过程并不简单哦。请仔细阅读版本说明。

Ceph 12.2.0 正式版本发布, 代号 Luminous

 

 

在 Kraken(v11.2.z)版本上进行的重要修改

  • 通用
    Ceph现在有一个内置的简易DarshBoard,用于监控集群状态。
  • RADOS
    • Bluestore
      • ceph-osd的新后端存储BlueStore已经稳定,是新创建的OSD的默认设置。
        BlueStore通过直接管理物理HDD或SSD而不使用诸如XFS的中间文件系统,来管理每个OSD存储的数据,这提供了更大的性能和功能。
      • BlueStore支持Ceph存储的所有的完整的数据和元数据校验。
      • BlueStore内嵌支持使用zlib,snappy或LZ4进行压缩。(Ceph还支持zstd进行RGW压缩,但由于性能原因,不为BlueStore推荐使用zstd)。
    • EC池现在完全支持覆盖,允许它们与RBD和CephFS一起使用。
    • ceph-mgr:
      • ceph-mgr是一个新的后台进程,这是任何Ceph部署的必须部分。虽然当ceph-mgr停止时,IO可以继续,
        但是度量不会刷新,并且某些与度量相关的请求(例如,ceph df)可能会被阻止。我们建议您多部署ceph-mgr的几个实例来实现可靠性。
      • ceph-mgr守护进程daemon包括基于REST的API管理。注:API仍然是实验性质的,目前有一些限制,但未来会成为API管理的基础。
      • ceph-mgr还包括一个Prometheus插件。
      • ceph-mgr现在有一个Zabbix插件。使用zabbix_sender,它可以将集群故障事件发送到Zabbix Server主机。
        这样可以方便地监视Ceph群集的状态,并在发生故障时发送通知。
    • 集群的总体可扩展性有所提高。我们已经成功测试了多达10,000个OSD的集群。
    • 目前,每个OSD都具有与其相关联的设备类(例如,hdd或ssd),允许CRUSH规则将数据简单地映射到系统中的设备的子集。
      通常不需要手动编写CRUSH规则或手动编辑CRUSH。可以优化CRUSH权重,以保持OSD之间数据的近乎完美的分布。
    • 还有一个新的upmap异常处理机制,允许单个PG移动以实现完美的分发(这需要客户端)。
    • 每个OSD目前可以根据后端设备是HDD还是SSD来调整其默认配置。一般不需要手动调整。
    • 原型mclock QoS排队算法已经可用。
    • 新增一种退出机制,可以防止OSD出现对当前不能处理IO对象或PG的请求过载情况。
    • OSD更换过程简化,变得更加强大了。
    • 您可以使用ceph功能来查询所有连接的后台程序和客户端的支持功能和版本。
    • 通过ceph osd set-require-min-compat-client连接到集群,您可以配置最旧的Ceph客户端版本,但 Ceph将阻止您启用会破坏与这些客户端的兼容性的功能。
    • 包括osd_recovery_sleep,osd_snap_trim_sleep和osd_scrub_sleep的几个睡眠设置,已经被重新实现,并且可以有效地工作。(这些在某些情况下用于解决问题,限制后台工作。)
    • 完成对Luminous的升级后,集群将尝试将现有池与已知应用(即CephFS,RBD和RGW)相关联。未与应用程序关联的使用池将生成健康警告,可以使用新命令手动关联任何未关联的池。ceph osd pool application enable
  • RGW
    • RGW支持最终用户请求服务,通过ElasticSearch进行RGW元数据搜索,并且还支持自定义元数据字段。
      查询语言是一组RESTful API,用户可以通过其元数据来搜索对象。还添加了允许自定义元数据字段控制的新API。
    • RGW支持动态存储桶索引分片。随着桶中的对象数量的增加,RGW将自动重新构建桶索引。不需要用户干预或桶大小容量规划。
    • RGW引入了上传对象的服务器端加密,用于管理加密密钥的三个选项有:自动加密(仅推荐用于测试设置),客户提供的类似于Amazon SSE-C规范的密钥,以及通过使用外部密钥管理服务 OpenstackBarbician)类似于Amazon SSE-KMS规范。
    • RGW具有初步的类似AWS的存储桶策略API支持。现在,策略是一种表达一系列新授权概念的方式。未来,这将成为附加身份验证功能的基础,例如STS和组策略等。
    • RGW通过使用rados命名空间合并了几个元数据索引池。
    • 新增S3对象标记API; 只支持GET / PUT / DELETE和PUT。
    • RGW多站点支持在桶级启用或禁用同步。
  • RBD
    • RBD目前通过新的–data-pool选项来创建rbd,对EC池具有完整稳定的支持。
    • RBD镜像的rbd-mirror后台进程是可用的。我们建议您多部署几个rbd镜像来实现可靠性。
    • RBD镜像的rbd-mirror守护进程使用每个实例的唯一Ceph用户ID来支持新的Dashboard。
    • 在创建集群期间,不再自动创建默认的’rbd’池。另外,当没有指定池时,rbd CLI使用的默认池的名称可以通过新的rbd default pool = <pool name>配置选项来覆盖。
    • 通过新的rbd trash命令初始支持延迟映像删除。镜像,即使是由克隆主动使用的镜像,也可以移动到垃圾桶,并在以后删除。
    • 新的管理池级别的rbd mirror poolpromote和rbd mirror pool demote命令可以批量提升/降级池内所有的镜像文件。
    • 镜像现在可以通过rbd mirroringreplay delay = <seconds>配置选项支持可配置的复制延迟。
    • 当对象映射功能启用时,可改进丢弃处理功能。
    • RBD import 和 copy命令现在可以检测稀疏并保留稀疏区域。
    • 快照可以包含创建时间戳。
    • 为RBD客户端指定了用户授权功能简化。 使用RBD功能配置文件的一般语法是“mon’profile rbd’osd’profile rbd [-read-only] [pool = {pool-name} [,…]]’”。
  • CephFS
    • 多MDS已经稳定,主MDS数量可以根据需求进行调整。
    • CephFS目录分片已经稳定的,默认情况下在新的文件系统上启用。
      要使其在现有的文件系统上启动,要使用“ceph fs set<fs_name> allow_dirfrags”。大型或非常繁忙的目录被分割并(可能)自动分布在多个MDS后台驻留程序中。
    • 在不需要自动负载均衡的情况下,目录子树可以明确固定到特定的MDS后台程序。
    • 客户端密钥现在可以使用新的ceph fs authorize命令创建。
    • 当在具有CephFS的Pool上运行’df’命令时,结果显示的内容是使用和可用的文件存储空间数据池(仅限fuse客户端)。
  • Miscellaneous
    • Debian Stretch现在正在构建版本包。QA仅限于CentOS和Ubuntu(xenial and trusty),我们现在构建的发行版包括:
      • CentOS 7 (x86_64 and aarch64)
      • Debian 8 Jessie (x86_64)
      • Debian 9 Stretch (x86_64)
      • Ubuntu 16.04 Xenial (x86_64 and aarch64)
      • Ubuntu 14.04 Trusty (x86_64)
    • FreeBSD的Ceph的第一个版本可用。通过常规FreeBSD端口和软件包发布系统,最新可用版本:net/ceph-devel。

在 Jewel(v10.2.z)版本上进行的重要修改

  • RADOS
    • 现在默认为AsyncMessenger (ms type = async)的传统SimpleMessenger。最明显的区别是
      我们现在使用固定大小的线程池进行网络连接(而不是使用SimpleMessenger,一个socket两个线程)。
    • 优化OSD故障检测时间,而以前的心跳超时(默认为20秒)。
    • 优化OSDMaps的代码量。
    • 集群在进行重平衡/数据恢复时,OSD会停止Scrub。
  • RGW
    • RGW现在支持S3多对象复制API。
    • 现在可以离线重塑现有的分支。离线目前,桶重塑要求所有IO(特别是写入)到特定的桶是静止的。(用于自动在线重塑Luminous的新功能。)
    • RGW现在支持对象的数据压缩。
    • Civetweb版本已升级到1.8。
    • 现在支持Swift静态网站API(前提支持S3)。
    • 添加了S3 bucket生命周期API。注意目前只支持对象到期。
    • 支持自定义搜索过滤器已添加到LDAP认证中实现。
    • 对NFS版本3的支持已添加到RGW NFS网关。
  • RBD
    • image快照的数量可配置最大值。
    • rbd Python API现在支持异步IO操作。

更多详情变化查看官网 版本说明。本文由Ceph中国社区-Devin翻译,英文出处:官网release-notes

文章末尾固定信息

继续阅读
 
admin
  • 本文由 admin 发表于 2017年8月31日
  • 除非特殊声明,本站文章许可协议为"署名-非商用-相同方式共享 4.0",转载请保留原链、作者等信息。
GlusterFS 和 Ceph 比比看 容器化

GlusterFS 和 Ceph 比比看

存储世界最近发生了很大变化。十年前,Fibre Channel SAN 文件管理器是企业存储的标准。而在目前的环境中,受到基础架构即服务云的影响,数据存储需要更加灵活。 GlusterFS 和 Cep...
广告也精彩
匿名

发表评论

匿名网友
:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:
确定

拖动滑块以完成验证