Chinaunix首页 | 论坛 | 博客
  • 博客访问: 122768
  • 博文数量: 165
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 1655
  • 用 户 组: 普通用户
  • 注册时间: 2022-09-26 14:37
文章分类

全部博文(165)

文章存档

2024年(2)

2023年(95)

2022年(68)

我的朋友

分类: 大数据

2022-11-11 11:23:09

接触过TensorFlow v1的朋友都知道,训练一个TF模型有三个步骤:定义输入和模型结构,创建tf.Session实例sess,执行sess.run()启动训练。不管是因为历史遗留代码或是团队保守的建模规范,其实很多算法团队仍在大量使用TF v1进行日常建模。我相信很多算法工程师执行sess.run()不下100遍,但背后的运行原理大家是否清楚呢?不管你的回答是yes or no,今天让我们一起来探个究竟。

学习静态图运行原理能干什么?掌握它对我们TF实践中的错误排查、程序定制、性能优化至关重要,是必备的前置知识。

一、何为静态图?

众所周知,TensorFlow程序有两种运行选择,即静态图模式动态图模式

1.1 静态图

静态图采用声明式编程范式(先编译后执行),根据前端语言(如python)描述的神经网络结构和参数信息构建固定的静成计算图,静态图在执行期间不依赖前端语言,而是由TF框架负责调度执行,因此非常适合做神经网络模型的部署。用户定义的静态图经序列化后用GraphDef表达,其包含的信息有:网络连接、参数设置、损失函数、优化器等。

有了完整的静态图定义后,TF编译器将计算图转化成IR(中间表示)。初始IR会经TF编译器一系列的转换和优化策略生成等价的计算图。编译器前端转换和优化包括:自动微分、常量折叠、公共子表达式消除;编译器后端与硬件相关,其转换和优化包括:代码指令生成和编译、算子选择、内存分配、内存复用等。

综上所述,静态图的生成过程可用下图简要概适:

1.2 动态图

动态图采用命令式编程范式,即编译与执行同时发生。动态图采用前端语言的解释器对用户代码进行解析,然后利用TF框架的算子分发功能,使得算子立即执行并向前端返回计算结果。当模型接收输入数据后,TF开始动态生成图拓扑结构,添加输入节点并将数据传输给后续节点。如果动态图中含有条件控制逻辑,会立即计算逻辑判断结果并确定后续数据流向,因此动态图完整的拓扑结构在执行前是未知的。另外,当模型根据新的batch训练时,原有的图结构则失效,必须根据输入和控制条件重新生成图结构。

综上所述,动态图生成过程可用下图简要概括:

1.3 比较

为了方便大家深入理解动/静态图原理及异同点,梳理相关信息如下表:

特性

静态图

动态图

即时获取中间结果

代码调试难度

控制流实现方式

TF特定语法

可采用前端语言语法

性能

多种优化策略,性能好

优化受限,性能差

内存占用

内存占用少

内存占用多

部署情况

可直接部署

不可直接部署

二、Session是干啥的?

2.1 Session定义

tf.Session代表用户程序和C++运行时之间的连接。一个Session类对象session可以用来访问本机计算设备,也可访问TF分布式运行时环境中的远程设备。session也能缓存tf.Graph信息,使得相同计算逻辑的多次执行得以高效实现。

tf.Session的构造方法定义如下:

 def __init__(self, target='', graph=None, config=None):
    """Creates a new TensorFlow session.
    If no `graph` argument is specified when constructing the session,
    the default graph will be launched in the session. If you are
    using more than one graph (created with `tf.Graph()` in the same
    process, you will have to use different sessions for each graph,
    but each graph can be used in multiple sessions. In this case, it is often clearer to pass the graph to be launched explicitly to the session constructor.
    Args:
      target: (Optional.) The execution engine to connect to. Defaults to using an in-process engine. See
        @{$distributed$Distributed TensorFlow} for more examples.
      graph: (Optional.) The `Graph` to be launched (described above).
      config: (Optional.) A [`ConfigProto`]()
        protocol buffer with configuration options for the session. """
    super(Session, self).__init__(target, graph, config=config)
    # NOTE(mrry): Create these on first `__enter__` to avoid a reference cycle.
    self._default_graph_context_manager = None
    self._default_session_context_manager = None

我们来看一下__init__()方法的三个参数:

?target:默认为空,代表session仅可访问本机上的计算设备。如果设置grpc://样式的URL,则可以访问TF server对应机器的计算设备。

?graph:默认执行当前default graph中的op算子。如果用户程序中包含多个计算图,则在创建session时必须指定是哪个计算图。

?config:通过指定tf.ConfigProto来控制session的行为。常见的配置选项有:设备退化allow_soft_placement、分布式集群配置cluster_def、图优化策略
graph_options.optimizer_options、GPU内存逐步增长gpu_options.allow_growth。

2.2 Session.run()

tf.Session.run()实际是调用tf.BaseSession.run()方法,其函数签名如下:

def run(self, fetches, feed_dict=None, options=None, run_metadata=None):

run()方法的参数说明如下:

?fetches:指定要执行的tf.Operation或评估的tf.Tensor,可以是单个元素或是列表、字典。

?feed_dict:一个占位符到填充值的映射。

?options:RunOptions的protocol buffer。

?run_metadata:RunMetadata的protocol buffer,用来收集执行过程的元数据信息。

当Session指定fetches后,根据要获取的结果决定tf.Graph实际执行的subgraph(并非整个tf.Graph都要执行)。执行静态图还有三个要点:

?训练阶段用一个静态图,而预测/评估阶段用另一个静态图。

?一个session实例只能运行一个graph实例,但一个graph可以运行在多个session中。

?session之间可通过共享graph的方式来提高运行效率。创建session时若不指定graph,则运行的是default graph。如果新创建的session也不指定graph,则只需要对default graph的引用计数加1即可;当此session close时,default graph引用计数减1。

2.3 Session类前后端设计

首先我们看一下和用户直接打交道的前端Session,具体分为普通Session和交互式InteractiveSession。前者全称为tf.Session,需要在启动之前先构建完整的计算图;后者全称为tf.InteractiveSession,它是先构建一个session,然后再定义各种操作,适用于shell和IPython等交互式环境。这两个类均继承自BaseSession,这个基类实现了整个生命周期的所有会话逻辑(相关代码在
tensorflow/python/client/session.py中)。前端Session类的继承关系如下图:

TensorFlow后端会根据前端tf.Session(target='', graph=None, config=None)创建时指定的target来创建不同的后端Session。target是要连接的TF后端执行引擎,默认为空字符串。后端Session的创建采用抽象工厂模式,如果为空字符串,则创建本地DirectionSession;如果是grpc://开头的URL串,则创建分布式GrpcSession。DirectSession只能利用本地设备,将任务调度到本地的CPU/GPU设备上;GrpcSession可利用远程设备,将任务分发到不同机器的CPU/GPU上,然后机器之间通过gRPC进行通信。显而易见,DirectionSession的定义应在core/common_runtime/direction_session.h中;GrpcSession的定义在core/distributed_runtime/rpc/grpc_session.h中。后端Session的类图关系如下所示:

三、静态图执行过程

3.1 执行框架

为便于大家理解,我们先给出粗粒度的静态图执行原理如下:

1.客户端程序定义基于数据流的计算图,然后创建session并初始化计算引擎。

2.分布式Master依次完成四项工作:抽取实际执行的subgraph、切分subgraph形成若干子图片段、调度子图片段至集群、每个子图片段执行前的初始化工作。

3.集群中的Worker节点调度子图片段中Operation的执行,与其他Worker节点通过send/recv节点对进行通信。

3.2 若干执行细节

静态图的实际执行过程要比3.1节描述的复杂得多。由于本篇的初衷不是做源码的完整剖析,因此我们仅就Client向Master的处理过程做详细说明,旨在让读者亲身体会一下交互过程的复杂性。

Client创建GrpcSession,控制Client会话的生命周期;Master运行时被MasterSession控制。GrpcSession通过抽象工厂模式得到,首先得到工厂类GrpcSessionFactory的对象,并用SessionFactory句柄factory存储。然后通过factory的多态方法生成GrpcSession,如果target为grpc://的话。Master本质上是一个Server,每个Server均有一个MasterService和一个WorkerService。

Client通过GrpcSession调用Master节点的MasterService,这个过程需借助MasterInterface才可完成。MasterInterface用来和MasterService进行通信,它有两种不同的场景实现:

?如果Client和Master在同一个进程中,则用LocalMaster实现进程内的直接通信。

?GrpcRemoteMaster则使用gRPC来和MasterService进行通信,此时Master和Client在两个不同的进程中。GrpcRemoteMaster的角色是gRPC客户端,它通过stub访问远程Master节点上的MasterService服务。

如果读者想对上述过程做更为深入的了解,可以参考几个关键类的源码:

?GrpcSession:core/distributed_runtime/rpc/grpc_session.h

?LocalMaster:core/distributed_runtime/local_master.h

?GrpcRemoteMaster:core/distributed_runtime/rpc/grpc_remote_master.cc

?GrpcMasterService:core/distributed_runtime/rpc/grpc_master_service.cc

其实Client到Master的处理过程还涉及MasterSession的创建,以及GrpcSession与MasterSession的交互与标识问题。篇幅所限,不展开了。

四、总结

作为Dive into TensorFlow系列{BANNED}中国{BANNED}中国{BANNED}中国第一讲,本文由浅入深、系统讲解了静态图及其运行原理,以及支撑这些功能的架构设计与部分源码解析。回到文章开头提到的用户读懂全文能有什么收益?(尝试提几点)

?明白默认session能运行默认静态图的原理,及常见的错误排查与调试方法。能根据场景需要灵活选择动/静态图计算模式。

?如果一个静态图由几个独立子图构建,我们建议对每个子图分别构建tf.Graph对象。

?了解3.1小节对后续深入掌握op的placement、graph partition、基于gRPC的send/recv算子对做进程间通信有方向性指引作用。

作者:李杰

参考资料

1.Graphs and Sessions:

2.《机器学习系统:设计与实现》:

3.前后端连接的桥梁Session:

4.TensorFlow v1.15.5源码: ?

5.TensorFlow Architecture:

6.TensorFlow分布式环境Session: https://www.cnblogs.com/rossiXYZ/p/16065124.html



阅读(460) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~