柔中带刚,刚中带柔,淫荡中富含柔和,刚猛中荡漾风骚,无坚不摧,无孔不入!
全部博文(1669)
分类: 架构设计与优化
2016-03-21 15:59:45
http://www.cnblogs.com/sammyliu/p/4908668.html
Ceph 作为软件定义存储的代表之一,最近几年其发展势头很猛,也出现了不少公司在测试和生产系统中使用 Ceph 的案例,尽管与此同时许多人对它的抱怨也一直存在。本文试着整理作者了解到的一些使用案例。
携程所使用的各种存储的现状:
而在不久的将来,随着公司业务的发展,携程需要的存储容量需要扩大到10倍以上。
携程选择Ceph的理由:低成本 + SDS + Scale-out + 统一存储 + 企业特性
携程目前的Ceph集群的配置:
RGW 使用架构:
携程有在数据中心之间的同步数据的需求。在研究了 CRUSHmap、Radosgw-agent、Federate gateway (不稳定、不灵活(只支持Zone 之间同步)、不易扩展)后,其自研了COS方案,它具有稳定、灵活、扩展性等特点:
下一步的计划:
资料来源:携程在 2015/10/18 SH Ceph Day 上的分享。
楼主点评:
中国联通研究院在使用Ceph对象和文件存储:
该集群还比较小,更多的是处于做大规模使用前的准备阶段。其测试环境:
测试结果:
他们认为SSD对性能提升的效果一般:
资料来源:联通研究院在 2015/10/18 SH Ceph Day 上的分享。
楼主点评:
宝德云使用Ceph的理由:
宝德云的用法:OpenStack + Ceph (RDB,CephFS)+ Docker
Ceph Rados Gateway driver for Docker Registry
Map RBD device inside DockerContainer
CephFS as Data Volume
CephFS as NAS Storage
Run Ceph in Containers
使用案例:宝德云上的爱慕流媒体服务
资料来源:宝德云在 2015/10/18 SH Ceph Day 上的分享。
楼主点评:
CERN 的一些实习生搭了一套环境,使用 NetApp Cinder driver 和 Ceph,进行性能比较。
NetApp 环境(适应iSCSI驱动): Ceph 集群:
FAS2040 Storage Systems
Benchmark 环境:
做法:在两个存储上分别创建100G,200G,400G的卷,分别挂载到三个虚机上,使用 hdparm、Flexible I/O Tester 和 dd命令作为测试工具。
(FIO使用的是 writeback 缓存机制)
结论:
(1)读上,Ceph 比 NetApp 更快;写上,两者差不多。
(2)Ceph 使用缓存的话,对 I/O 性能影响很大。writeback 能较大地提交性能,而writethrough 只能轻微地提交性能。
(3)对单个卷使用不同的条带化参数,能提交其性能。该功能会在 Cinder 中实现。
乐视采用了 Ceph RBD 作为 统一存储,OpenStack使用的Cinder,后端接的是Ceph,Glance也是共享Ceph存储。同时还提供了 S3 对象存储,用作于 CND 源站,存储乐视网的视频以及客户需要分发的资源。S3 也是全国分布式部署,用户可以就近上传,再推送到北京。目前乐视云 OpenStack 规模已达 900 个物理节点,对象存储的数据达到数PB。乐视认为,“ceph 数据分布,性能方面都很不错,crush算法是它的亮点“。
国内的 UnitedStack 应该说对 Ceph 做出了很大的贡献,包括很多的 bug fix 和新的功能,同时,也使用 Ceph 搭建了很大规模的云。他们 Ceph 团队的 blog 非常值得关注。下面是他们的测试报告:
IOPS: 吞吐率
写惩罚:
结论: