Chinaunix首页 | 论坛 | 博客
  • 博客访问: 11273
  • 博文数量: 1
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 10
  • 用 户 组: 普通用户
  • 注册时间: 2016-03-23 13:56
文章分类
文章存档

2016年(1)

我的朋友
最近访客

分类: Python/Ruby

2016-03-23 13:58:30

接近大半年没有写日志了,也许是自己越来越懒惰吧。但有时候写写东西能够让自己沉淀,还是回来记录一下吧。入职大半年了,熟悉了一些相关的工作,目前主要从事分布式系统的研究和开发,目前的开发主要是停留在管理层面的开发,还未到达修改代码。这半年的时间熟悉了两款非常不错的分布式系统glusterfs和Ceph。两款分布式存储产品各有优势,其中Glusterfs提供的文件服务是Ceph系统无法提供的。而Ceph的块设备、对象存储、文件系统统一的架构也是GlusterFs无法满足的。因此各有优势。

从代码层面来说,GlusterFs的代码比较简单,层次比较明显,堆栈式的处理流程非常清晰。非常容易实现文件系统的功能扩展(在客户端和服务器端添加处理模块即可),虽然服务器端、客户端代码是一份代码,但整体而言代码比较清晰,代码量较少。

而Ceph采用C++开发,而且系统本身存在多个进程,多个进程构成一个大的集群,而集群内部也存在小的集群,相对Glusterfs而言,代码要复杂的多,同时Ceph自身实现了自我调整和自我修复。支持软件系统的定制,通过Crush算法查找到对象的存储位置。

就目前的热度而言Ceph比较火,但是文件系统的提供,Glusterfs还是不错的选择。

最近在从事Ceph的相关管理平台开发工作,熟悉了官方提供的Calamari平台,该平台目前主要提供了Ceph分布式存储系统的管理工作,整体上主要是提供了页面管理Ceph的手段。从目前的实现角度来看,该平台还存在一定的局限性,不能完成强大的功能,或者说目前提供的版本只能提供一些基本的功能。但是Calamari的框架确实非常不错的。Ceph属于开源软件,Calamari也是开源软件,而且Calamari是由一系列的开源软件组合而言,这些开源软件都只完成了其特定的功能。虽然是拼凑,但整体而言,该管理平台的框架是值得借鉴的。
以下部分参考。
Calamari的架构图

其中红框部分为Calamari代码实现的部分,非红框部分为非Calamari实现的开源框架。

Ceph server node安装的组件有DiamondSalt-minionDiamond负责收集监控数据,它支持非常多的数据类型和metrics;每一个类型的数据都是上图中的一个collector,它除了收集Ceph本身的状态信息,它还可以收集关键的资源使用情况和性能数据,包括CPU,内存,网络,I / O负载和磁盘指标。Collector都是使用本地的命令行来收集数据,然后报告给Graphite

Graphite不仅是一个企业级的监控工具, 还可以实时绘图。carbon-cachePython实现的高度可扩展的事件驱动的I/O架构的后端进程,它可以有效地跟大量的客户端通信并且以较低的开销处理大量的业务量。

WhisperRRDtool类似,提供数据库开发库给应用程序来操纵和检索存储在特殊格式的文件数据(时间数据点数据),Whisper最基本的操作是创建作出新的Whisper文件,更新写入新的数据点到一个文件中,并获取检索的数据点

Graphite_web是用户接口,用来生成图片,用户可以直接通过URL的方式访问这些生成的图片。

Calamari 使用了SaltstackCalamari ServerCeph server node通信。Saltstack是一个开源的自动化运维管理工具,与ChefPuppet功能类似。Salt-master发送指令给指定的Salt-minion来完成对Cpeh Cluster的管理工作;Salt-minion Ceph server node安装后都会从master同步并安装一个ceph.py文件,里面包含Ceph操作的API,它会调用librados或命令行来最终和Ceph Cluster通信。

calamari_rest提供Calamari REST API,详细的接口请大家参照官方文档。CephREST API是一种低层次的接口,其中每个URL直接映射到等效的CEPH CLICalamari REST API提供了一个更高层次的接口,API的使用者可以习惯的使用GET/POST/PATCH方法来操作对象,而无需知道底层的Ceph的命令;它们之间的主要区别在于,CephREST API的使用者需要非常了解Ceph本身,而Calamari REST API更贴近对Ceph资源的描述,所以更加适合给上层的应用程序调用。

cthulhu可以理解是Calamari ServerService层,对上为API提供接口,对下调用Salt-master

calamari_clients是一套用户界面,Calamari Server在安装的过程中会首先创建opt/calamari/webapp目录,并且把webapp/calamari下的manager.py(django 配置)文件考进去, calamari_web的所有内容到要放到opt/calamari/webapp下面来提供UI的访问页面。

calamari-web包下面的文件提供所有web相关的配置,calamari_rest和calamari_clients都要用到。

      该框架使用了大量的开源软件,但是从扩展的角度来说还是值得学习的,其中saltstack实现了管理节点和服务器节点的通信链路,而且支持多节点的管理,这样不需要考虑管理节点和服务器之间的通信问题,在服务器端只需要实现具体的业务逻辑,即具体管理任务的实现。同时Saltstack是采用Python开发的,这样便于快速的开发系统,非常的方便管理人员在现场进行调试,定位问题。ceph本身也提供了python的API接口,直接通过Ceph的API就能实现集群的控制。SaltStack的使用使得集群可以到达一定的规模。SaltStack的Master端实际上作为管理端的控制接口,而SaltStack作为服务器的Agent端。在Calamari中通过Saltstack发送心跳报文,检查服务器的信息、集群的信息,控制命令的分发。可以说理解了SaltStack的基本模式就能理解Calamari的开发和扩展。

    该框架中另一组非常重要的开源软件是diamond+graphite,其中diamond完成了服务器端信息的收集工作,而graphite实现了图表信息的提供。diamond目前提供了绝大多数开源系统的信息收集,提供服务器基本信息的收集(CPU、内存、磁盘等信息),也是采用Python实现,非常容易扩展和调试。目前diamond中已经存在了Ceph的信息收集。而graphite主要是为前台提供时序数据,这样就简化了重新编写具体的业务逻辑。

     学习和了解Calamari就必须了解一些基本的组件,掌握这些组件的作用和目的。下面从代码的层面介绍如何扩展Calamari。

1      Calamari的扩展

Calamari的基础之上进行新的功能开发,主要分为如下的几个模块,这部分包括Rest-API部分,Cthulhusalt客户端的扩展。关于扩展新功能的基本步骤如下:

>> 扩展URL模块,确定对应的响应接口参数、对应ViewSet中的响应接口。

>> 完成ViewSet中部分接口的实现,这部分主要涉及与cthulhu的交互,如何获取数据信息,有些情况下还需要获取serializer中对象的序列化操作。

>> 完成后台rpc.py中对应类型的扩展,这部分主要是针对部分的post操作。

>> 完成cluster_monitor.py的扩展,对于提供操作的部分功能需要支持createupdatedelete等操作,必须提供对应的RequestFactory。而在cluster_monitor.py中需要将对应的RequestFactory添加代码中。

>> 完成对应RequestFactory类的编写,这部分主要是完成命令操作的封装。并构建对应的请求操作。

>> salt-minion的扩展,这部分主要是针对ceph.py文件的扩展,当然也可以提供新的xxx.py文件。

接下来以PG的控制和操作为例进行说明。

1.1       URL模块扩展

目前Calmamari采用Rest-API形式,采用DjangoRest-Framework框架支持,这部分在rest-api代码目录中。Django采用Url和代码逻辑分离的实现方式,因此URL可以单独的扩展。

rest-api/calamari-rest/urls/v2.py中添加如下的有关PGURL

    url(r'^cluster/(?P[a-zA-Z0-9-]+)/pool/(?P\d+)/pg$',    calamari_rest.views.v2.PgViewSet.as_view({'get': 'list'}),       name='cluster-pool-pg-list'),

   url(r'^cluster/(?P[a-zA-Z0-9-]+)/pool/(?P\d+)/pg/(?P[0-9a-fA-F]+\.[0-9a-fA-F]+)/command/(?P[a-zA-Z_]+)$',

        calamari_rest.views.v2.PgViewSet.as_view({'post': 'apply'}),

        name='cluster-pool-pg-control'),

以上定义了两个URL,分别是:

api/v2/cluster/xxxx/pool/x/pg

api/v2/cluster/xxxx/pool/x/pg/xx/command/xxx

以上两个URL分别指定了PgViewSet中的接口,urlget方法对应了list接口。post接口对应的apply接口。这两个接口就是PgViewSet中必须实现的。

1.2       ViewSet的扩展

在扩展URL之后,接下来就是进行对应响应接口的扩展,这部分的扩展主要是针对在URL中指定的接口类进行实现。在之前的PG指定了两个不同的接口,分别是获取和操作命令,对应的代码路径为/rest-api/calamari-rest/view/v2.py,具体的代码如下:

class PgViewSet(RPCViewSet):

    serializer_class = PgSerializer

 

    def list(self, request, fsid, pool_id):

        poolName = self.client.get(fsid, POOL, int(pool_id))['pool_name']

        pg_summary = self.client.get_sync_object(fsid, PgSummary.str)

        pg_pools = pg_summary['pg_pools']['by_pool'][int(pool_id)]

 

        for pg in pg_pools:

            pg['pool'] = poolName

        return Response(PgSerializer(pg_pools, many=True).data)

 

    def apply(self, request, fsid, pool_id, pg_id, command):

        return Response(self.client.apply(fsid, PG, pg_id, command), status=202)

从如上的实现可知,代码实现了两个接口,分别是listapply接口,即对应与之前的getpost操作。以上两个操作都会与后台cthulhu进行交互。分别是获取参数和提交请求。返回内容也有一定的差异。

同时在list接口中进行了序列化设置,即PgSerializer,该实现在rest-api/calamari-rest/serializer/v2.py中。

1.2.1          序列化操作

通常在Rest-Api中会进行数据的序列化,这部分并不是一定要进行的,通常在需要更改的操作中是有必要的。如下是Pg的序列化操作:

class PgSerializer(serializers.Serializer):

    class Meta:

        fields = ('id', 'pool', 'state', 'up', 'acting', 'up_primary', 'acting_primary')

    id = serializers.CharField(source='pgid')

    pool = serializers.CharField(help_text='pool name')

    state = serializers.CharField(source='state', help_text='pg state')

    up = serializers.Field(help_text='pg Up set')

    acting = serializers.Field(help_text='pg acting set')

    up_primary = serializers.IntegerField(help_text='pg up primary')

acting_primary = serializers.IntegerField(help_text='pg acting primary')

这部分并不是必须的。有些模块可能不存在这部分的操作。在之前的三个步骤中基本上就实现了Rest-API部分的扩展,其中主要的ViewSet的扩展。有关ViewSet实际上实现了cthulhurest-api的交互方法。

ViewSet的扩展中实际上采用了rpc与后台交互,因此在cthulhu的实现部分主要是处理对应的rpc请求。

1.3       rpc扩展

rpc.py中实现了所有请求的操作,但是新扩展的操作也是需要支持扩展的,以pg为例继续说明:

    def apply(self, fs_id, object_type, object_id, command):

        """

        Apply commands that do not modify an object in a cluster.

        """

        cluster = self._fs_resolve(fs_id)

 

        if object_type == OSD:

            # Run a resolve to throw exception if it's unknown

            self._osd_resolve(cluster, object_id)

            return cluster.request_apply(OSD, object_id, command)

        elif object_type == PG:

            return cluster.request_apply(PG, object_id, command)

        else:

            raise NotImplementedError(object_type)

Pg的列表是通过PgSummary获取。这部分在之前的实现中已存在,之前的代码实现如下:

    def get_sync_object(self, fs_id, object_type, path=None):

        """

        Get one of the objects that ClusterMonitor keeps a copy of from the mon, such

        as the cluster maps.

 

        :param fs_id: The fsid of a cluster

        :param object_type: String, one of SYNC_OBJECT_TYPES

        :param path: List, optional, a path within the object to return instead of the whole thing

 

        :return: the requested data, or None if it was not found (including if any element of ``path``

                 was not found)

        """

 

        if path:

            obj = self._fs_resolve(fs_id).get_sync_object(SYNC_OBJECT_STR_TYPE[object_type])

            try:

                for part in path:

                    if isinstance(obj, dict):

                        obj = obj[part]

                    else:

                        obj = getattr(obj, part)

            except (AttributeError, KeyError) as e:

                log.exception("Exception %s traversing %s: obj=%s" % (e, path, obj))

                raise NotFound(object_type, path)

            return obj

        else:

            return self._fs_resolve(fs_id).get_sync_object_data(SYNC_OBJECT_STR_TYPE[object_type])

1.4       cluster_monitor.py扩展

有关请求的操作都会进行集群的控制,这部分可以通过cluster_monitor进行实现,以pg为例进行说明。

    def __init__(self, fsid, cluster_name, notifier, persister, servers, eventer, requests):

        super(ClusterMonitor, self).__init__()

 

        self.fsid = fsid

        self.name = cluster_name

        self.update_time = datetime.datetime.utcnow().replace(tzinfo=utc)

 

        self._notifier = notifier

        self._persister = persister

        self._servers = servers

        self._eventer = eventer

        self._requests = requests

 

        # Which mon we are currently using for running requests,

        # identified by minion ID

        self._favorite_mon = None

        self._last_heartbeat = {}

 

        self._complete = gevent.event.Event()

        self.done = gevent.event.Event()

 

        self._sync_objects = SyncObjects(self.name)

 

        self._request_factories = {

            CRUSH_MAP: CrushRequestFactory,

            CRUSH_NODE: CrushNodeRequestFactory,

            OSD: OsdRequestFactory,

            POOL: PoolRequestFactory,

            CACHETIER: CacheTierRequestFactory,

            PG: PgRequestFactory,

            ERASURE_PROFILE: ErasureProfileRequestFactory,

            ASYNC_COMMAND: AsyncComRequestFactory

        }

 

        self._plugin_monitor = PluginMonitor(servers)

        self._ready = gevent.event.Event()

这部分主要是将对应的请求与对应的请求工厂类进行绑定,这样才能产生出合适的请求。

1.5       工厂类编写

该工厂类主要是针对不同的需求,实现具体的接口类,不同的对象有不同的请求类,以Pg为例说明:

from cthulhu.manager.request_factory import RequestFactory

from cthulhu.manager.user_request import RadosRequest

from calamari_common.types import PG_IMPLEMENTED_COMMANDS, PgSummary

 

class PgRequestFactory(RequestFactory):

    def scrub(self, pg_id):

        return RadosRequest(

            "Initiating scrub on {cluster_name}-pg{id}".format(cluster_name=self._cluster_monitor.name, id=pg_id),

            self._cluster_monitor.fsid,

            self._cluster_monitor.name,

            [('pg scrub', {'pgid': pg_id})])

 

    def deep_scrub(self, pg_id):

        return RadosRequest(

            "Initiating deep-scrub on {cluster_name}-osd.{id}".format(cluster_name=self._cluster_monitor.name, id=pg_id),

            self._cluster_monitor.fsid,

            self._cluster_monitor.name,

            [('pg deep-scrub', {'pgid': pg_id})])

 

    def repair(self, pg_id):

        return RadosRequest(

            "Initiating repair on {cluster_name}-osd.{id}".format(cluster_name=self._cluster_monitor.name, id=pg_id),

            self._cluster_monitor.fsid,

            self._cluster_monitor.name,

            [('pg repair', {'pgid': pg_id})])

 

    def get_valid_commands(self, pg_id):

        ret_val = {}

        file('/tmp/pgsummary.txt', 'a+').write(PgSummary.str + '\n')

        pg_summary = self._cluster_monitor.get_sync_object(PgSummary)

        pg_pools = pg_summary['pg_pools']['by_pool']

        pool_id = int(pg_id.split('.')[0])

        pool = pg_pools[pool_id]

 

        for pg in pool:

            if pg['pgid'] == pg_id:

                ret_val[pg_id] = {'valid_commands': PG_IMPLEMENTED_COMMANDS}

            else:

                ret_val[pg_id] = {'valid_commands': []}

 

        return ret_val

该类中实现了三个不同的命令的实现,该命令主要是进行对应的封装,这部分关键字需要根据ceph源码中的参数进行选择,因此在编码时需要参照ceph源码中对应命令的json参数名。

1.6       salt-minion的扩展

这部分是salt的扩展模块,主要用于获取对应的数据信息,执行对应的操作命令等。在cthulhu中通过salt执行对应的操作命令。Ceph.py中有rados.commands等接口,该接口可用于执行ceph的命令。工厂类中封装的命令最终都会通过该接口执行。

总结
整体而言,Calamari的代码结构比较清晰,而且该开源框架也是值得学习的,在后续的分布式管理系统中也可参考saltstack+diamond+graphite的架构,前者实现控制逻辑,后面两个实现数据采集和数据的存储显示。

阅读(1671) | 评论(0) | 转发(0) |
0

上一篇:没有了

下一篇:没有了

给主人留下些什么吧!~~