Chinaunix首页 | 论坛 | 博客
  • 博客访问: 122680
  • 博文数量: 165
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 1655
  • 用 户 组: 普通用户
  • 注册时间: 2022-09-26 14:37
文章分类

全部博文(165)

文章存档

2024年(2)

2023年(95)

2022年(68)

我的朋友

分类: 高性能计算

2022-11-16 15:14:58


TF计算图从逻辑层来讲,由op与tensor构成。op是项点代表计算单元,tensor是边代表op之间流动的数据内容,两者配合以数据流图的形式来表达计算图。那么op对应的物理层实现是什么?TF中有哪些op,以及各自的适用场景是什么?op到底是如何运行的?接下来让我们一起探索和回答这些问题。

一、初识op

1.1 op定义

op代表计算图中的节点,是tf.Operation对象,代表一个计算单元。用户在创建模型和训练代码时,会创建一系列op及其依赖关系,并将这些op和依赖添加到tf.Graph对象中(一般为默认图)。比如:tf.matmul()就是一个op,它有两个输入tensor和一个输出tensor。

1.2 op分类

op的分类一般有多个视角,比如按是否内置划分、按工作类型划分。

按是否内置划分,一般分为:内置op和自定义op(见“二、自定义op”部分介绍)。

按工作类型划分,一般分为:常见数学op、数组op、矩阵op、有状态op、神经网络op、检查点op、队列与同步op、控制流op。TF白皮书对内置op的分类总结如下:

1.3 op与kernel

op一般都有名称且代表一个抽象的计算过程。op可以设置若干属性,但这些属性必须在编译期提供或推理得到,因为它们用来实例化一个节点对象从而执行真正的计算。属性的经典用法就是拿来支持类型多态,比如两个浮点张量的矩阵乘法与两个整型张量的矩阵乘法。

kernel是op在指定设备类型(CPU/GPU)上的具体实现。TF二进制库通过注册机制定义了一系列op及对应的kernel实现,用户可以提供额外的op定义与kernel实现进行扩充。一般来说,一个op对应多个kernel实现。

接下来让我们一起用矩阵乘法MatMul算子的相关代码来理解op与kernel的关系(此处不必纠结代码细节,只需体会op与kernel关系即可):


	

点击(此处)折叠或打开

  1. // 首先给出op注册的定义。其中输入输出支持泛型,其合法类型在Attr中进行枚举。
  2. // 代码位置 tensorflow1.15.5\tensorflow\core\ops\math_ops.cc
  3. REGISTER_OP("MatMul")
  4.     .Input("a: T")
  5.     .Input("b: T")
  6.     .Output("product: T")
  7.     .Attr("transpose_a: bool = false")
  8.     .Attr("transpose_b: bool = false")
  9.     .Attr(
  10.         "T: {bfloat16, half, float, double, int32, int64, complex64, "
  11.         "complex128}")
  12.     .SetShapeFn(shape_inference::MatMulShape);
  13.     
  14. // MatMul的实现,采用类模板机制
  15. // 代码位置 tensorflow1.15.5\tensorflow\core\kernels\matmul_op.cc
  16. template <typename Device, typename T, bool USE_CUBLAS>
  17. class MatMulOp : public OpKernel {
  18.   public:
  19.     explicit MatMulOp(OpKernelConstruction* ctx)
  20.       : OpKernel(ctx), algorithms_set_already_(false) {
  21.       OP_REQUIRES_OK(ctx, ctx->GetAttr("transpose_a", &transpose_a_));
  22.       OP_REQUIRES_OK(ctx, ctx->GetAttr("transpose_b", &transpose_b_));
  23.       LaunchMatMul<Device, T, USE_CUBLAS>::GetBlasGemmAlgorithm(
  24.         ctx, &algorithms_, &algorithms_set_already_);
  25.       use_autotune_ = MatmulAutotuneEnable();
  26.     }
  27.   // 省略了很多代码...
  28.   private:
  29.     std::vector<int64> algorithms_;
  30.     bool algorithms_set_already_;
  31.     bool use_autotune_;
  32.     bool transpose_a_;
  33.     bool transpose_b_;
  34. };
  35. // MatMul的op定义与kernel实现绑定处理
  36. // 代码位置 tensorflow1.15.5\tensorflow\core\kernels\matmul_op.cc
  37. #define REGISTER_CPU_EIGEN(T) /*cpu与eigen组合对应实现*/ \
  38.   REGISTER_KERNEL_BUILDER( \
  39.       Name("MatMul").Device(DEVICE_CPU).TypeConstraint<T>("T").Label("eigen"), \
  40.       MatMulOp<CPUDevice, T, false /* cublas, ignored for CPU */>);
  41. #define REGISTER_CPU(T) /*cpu对应实现(eigen与非eigen)*/ \
  42.   REGISTER_KERNEL_BUILDER( \
  43.       Name("MatMul").Device(DEVICE_CPU).TypeConstraint<T>("T"), \
  44.       MatMulOp<CPUDevice, T, false /* cublas, ignored for CPU */>); \
  45.   REGISTER_CPU_EIGEN(T);
  46. #define REGISTER_GPU(T) /*gpu对应实现(cublas与非cublas)*/ \
  47.   REGISTER_KERNEL_BUILDER( \
  48.       Name("MatMul").Device(DEVICE_GPU).TypeConstraint<T>("T"), \
  49.       MatMulOp<GPUDevice, T, true /* cublas, true by default */>); \
  50.   REGISTER_KERNEL_BUILDER(Name("MatMul") \
  51.                               .Device(DEVICE_GPU) \
  52.                               .TypeConstraint<T>("T") \
  53.                               .Label("cublas"), \
  54.                           MatMulOp<GPUDevice, T, true /* cublas */>)

二、自定义op

用户编写的模型训练代码一般由TF原生的op算子及其依赖关系组成,但有时候我们定义的计算逻辑在TF中没有相应的op实现。根据TensorFlow官网的建议,我们应当先组合python op算子或python函数进行尝试。完成尝试之后再决定要不要自定义op。

2.1 自定义op场景

一般来说,需要自定义op的场景有如下3个:

?用TF原生op组合来表达新计算逻辑的过程比较复杂或不可能
?用TF原生op组合来表达新计算逻辑,其计算性能较低
?在新版编译器中也较难实现op融合的计算逻辑需要我们手动实现融合

在此举个例子方便大家理解。假如我们要实现一个新计算实逻:中位数池化(median pooling),过程中要在滑动窗口不断求得中位数。检索TF文档没有发现对应op,因此我们先考虑用TF python op组合来实现它,果然通过ExtractImagePatches and TopK就可以实现这个功能。经测试前述组合方案并不是计算和存储高效的,因此我们就有必要将median pooling在一个op中进行高效实现。

2.2 自定义op流程

自定义op一般遵循5个基本步骤:

1.注册op,具体包括:指定名称、输入/输出声明、形状函数。
2.定义kernel(即op的实现)并与op绑定。一个op有多个kernel实现,具体由输入输出类型、硬件(CPU、GPU)决定。
3.创建python包装器,一般由op注册机制自动完成。
4.编写op的梯度计算函数(可选项)。
5.测试op,通过python测试较为方便,当然也可通过C++进行测试。

接下来我们就以官网{BANNED}最佳简单的ZeroOut同步式自定义op(继承OpKernel)为例,结合代码来讲述上述5个步骤。下面先给出步骤1和步骤2用C++实现的代码(官方推荐用bazel编译so文件):


	

点击(此处)折叠或打开

  1. // 步骤1:注册op
  2. REGISTER_OP("ZeroOut")
  3. .Input("to_zero: int32")
  4. .Output("zeroed: int32")
  5. .SetShapeFn([](::tensorflow::shape_inference::InferenceContext* c) {
  6.     c->set_output(0, c->input(0)); //c
步骤3加载上述so文件(自动完成前后端op映射);步骤4是可选项,此处不需要;步骤5基于python api测试op功能。相应代码如下:

	

点击(此处)折叠或打开

  1. import tensorflow as tf
  2. zero_out_module = tf.load_op_library('./zero_out.so') # 加载so文件生成python module
  3. with tf.Session(''):
  4.   zero_out_module.zero_out([[1, 2], [3, 4]]).eval()
  5. # Prints
  6. array([[1, 0], [0, 0]], dtype=int32)

2.3 高级话题

关于op的技术话题还有很多,我们在此简述一些要点:

1.如果实现了一个多线程CPU kernel,则可以利用work_sharder.h中的Shard函数。
2.大多数op以同步方式工作,只需继承OpKernel改写Compute()方法,且此方法必须线程安全。
3.如果一个op因为其它op的运行而阻塞,则这个op可以采用异步方式工作,继承AsyncOpKernel改写ComputeAsync()方法,且此方法必须线程安全。异步op{BANNED}最佳经典的例子就是跨设备通信send/recv pair中的RecvOp。
4.如果要为op配置一些静态属性,可使用Attr,它有一套特有的支持类型。典型应用是支持泛型。
5.实现GPU kernel有两部分内容:OpKernel和CUDA kernel,相应的加载代码。
6.编译自定义op,首先要配置头文件搜索路径与库文件搜索路径,接着指定编译和链接选项,{BANNED}最佳后还要确保ABI兼容性。
7.Resource(资源)代表相同设备上op共享的内容,比如:张量值、kv存储表、队列、读取器、网络连接等。代表资源的类必须继承ResourceBase,然后注册ResourceHandleOp生成资源句柄,普通op以resouce类型的Input进行引入。

三、op工作原理

3.1 op运行框架

整体来看,op与kernel都有其结构描述与统一的注册管理中心。而OpDefBuilder有两个包装类OpDefBuilderWrapper和OpDefBuilderReceiver,前者支持op构建的链式语法,后者接受op构建结果并进行注册。众所周知,op是编译期概念,而kernel是运行期概念,在AI编译器的后端处理流程中会进行op的算子选择,此过程会基于一系列策略为op匹配{BANNED}最佳合适的kernel实现。

?

??


3.2 若干技术细节

首先,我们来看一下大家在使用TensorFlow过程中经常碰到的libtensorflow_framework.so。按照tf1.15.5/tensorflow/BUILD中的描述,libtensorflow_framework.so定义了op和kernel的注册机制而不涉及具体实现。


	

点击(此处)折叠或打开

  1. // rootdir=tensorflow1.15.5
  2. // ${rootdir}/tensorflow/BUILD
  3. /*
  4. # A shared object which includes registration mechanisms for ops and
  5. # kernels. Does not include the implementations of any ops or kernels. Instead,
  6. # the library which loads libtensorflow_framework.so
  7. # (e.g. _pywrap_tensorflow_internal.so for Python, libtensorflow.so for the C
  8. # API) is responsible for registering ops with libtensorflow_framework.so. In
  9. # addition to this core set of ops, user libraries which are loaded (via
  10. # TF_LoadLibrary/tf.load_op_library) register their ops and kernels with this
  11. # shared object directly.
  12. */
  13. tf_cc_shared_object(
  14.     name = "tensorflow_framework",
  15.     framework_so = [],
  16.     linkopts = select({
  17.         "//tensorflow:macos": [],
  18.         "//tensorflow:windows": [],
  19.         "//tensorflow:freebsd": [
  20.             "-Wl,--version-script,$(location //tensorflow:tf_framework_version_script.lds)",
  21.             "-lexecinfo",
  22.         ],
  23.         "//conditions:default": [
  24.             "-Wl,--version-script,$(location //tensorflow:tf_framework_version_script.lds)",
  25.         ],
  26.     }),
  27.     linkstatic = 1,
  28.     per_os_targets = True,
  29.     soversion = VERSION,
  30.     visibility = ["//visibility:public"],
  31.     deps = [
  32.         "//tensorflow/cc/saved_model:loader_lite_impl",
  33.         "//tensorflow/core:core_cpu_impl",
  34.         "//tensorflow/core:framework_internal_impl", /* 展开此target进行查看 */
  35.         "//tensorflow/core:gpu_runtime_impl",
  36.         "//tensorflow/core/grappler/optimizers:custom_graph_optimizer_registry_impl",
  37.         "//tensorflow/core:lib_internal_impl",
  38.         "//tensorflow/stream_executor:stream_executor_impl",
  39.         "//tensorflow:tf_framework_version_script.lds",
  40.     ] + tf_additional_binary_deps(),
  41. )
  42. // ${rootdir}/tensorflow/core/BUILD
  43. tf_cuda_library(
  44.     name = "framework_internal_impl",
  45.     srcs = FRAMEWORK_INTERNAL_PRIVATE_HEADERS + glob( // 可以查看FRAMEWORK_INTERNAL_PRIVATE_HEADERS内容
  46.         [
  47.             "example/**/*.cc",
  48.             "framework/**/*.cc",
  49.             "util/**/*.cc",
  50.             "graph/edgeset.cc",
  51.             "graph/graph.cc",
  52.             "graph/graph_def_builder.cc",
  53.             "graph/node_builder.cc",
  54.             "graph/tensor_id.cc",
  55.             "graph/while_context.h",
  56.             "graph/while_context.cc",
  57.         ],
  58.     // 省略了诸多代码
  59. )
  60. // FRAMEWORK_INTERNAL_PRIVATE_HEADERS的内容
  61. FRAMEWORK_INTERNAL_PRIVATE_HEADERS = [
  62.     "graph/edgeset.h",
  63.     "graph/graph.h",
  64.     "graph/graph_def_builder.h",
  65.     "graph/node_builder.h",
  66.     "graph/tensor_id.h",
  67. ] + glob(
  68.     [
  69.         "example/**/*.h",
  70.         "framework/**/*.h", // 这里就是重点,查看${rootdir}/tensorflow/core/framework/op.h和opkernel.h
  71.         "util/**/*.h",
  72.     ]
  73. )
  74. // 先来看op.h
  75. #define REGISTER_OP(name) REGISTER_OP_UNIQ_HELPER(__COUNTER__, name)
  76. #define REGISTER_OP_UNIQ_HELPER(ctr, name) REGISTER_OP_UNIQ(ctr, name)
  77. #define REGISTER_OP_UNIQ(ctr, name) \
  78.   static ::tensorflow::register_op::OpDefBuilderReceiver register_op##ctr \
  79.       TF_ATTRIBUTE_UNUSED = \
  80.           ::tensorflow::register_op::OpDefBuilderWrapper<SHOULD_REGISTER_OP( \
  81.               name)>(name)
  82.               
  83. // 再来看看opkernel.h
  84. #define REGISTER_KERNEL_BUILDER(kernel_builder, ...) \
  85.   REGISTER_KERNEL_BUILDER_UNIQ_HELPER(__COUNTER__, kernel_builder, __VA_ARGS__)
  86. #define REGISTER_KERNEL_BUILDER_UNIQ_HELPER(ctr, kernel_builder, ...) \
  87.   REGISTER_KERNEL_BUILDER_UNIQ(ctr, kernel_builder, __VA_ARGS__)
  88. #define REGISTER_KERNEL_BUILDER_UNIQ(ctr, kernel_builder, ...) \
  89.   constexpr bool should_register_##ctr##__flag = \
  90.       SHOULD_REGISTER_OP_KERNEL(#__VA_ARGS__); \
  91.   static ::tensorflow::kernel_factory::OpKernelRegistrar \
  92.       registrar__body__##ctr##__object( \
  93.           should_register_##ctr##__flag \
  94.               ? ::tensorflow::register_kernel::kernel_builder.Build() \
  95.               : nullptr, \
  96.           #__VA_ARGS__, \
  97.           [](::tensorflow::OpKernelConstruction* context) \
  98.               -> ::tensorflow::OpKernel* { \
  99.             return new __VA_ARGS__(context); \
  100.           })

四、总结

本文为大家系统讲解了TensorFlow的核心抽象op及其kernel实现。需要自定义op的具体场景,以及op的运行框架及若干技术细节。读罢此文,读者应该有如下几点收获:

?TensorFlow中op是编译期概念,kernel是运行期概念,两者各自的定义与注册方式,以及相应的映射逻辑。
?掌握TensorFlow的高阶玩法:自定义op。这将使你之前工作的不可能变为可能,由低效转化为高效。
?掌握op与kernel注册的宏定义来自何方,以及宏定义背后具体的运行框架。

参考资料

1.《TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems》:

2.Graphs and Sessions:

3.Adding a New Op: ?

4.跨设备通信send/recv: ?

5.OpKernel definition:

6.tensorflow源码解析之framework-resource: https://www.cnblogs.com/jicanghai/p/9535504.html

7.tensorflow源码解析之framework-op: https://www.cnblogs.com/jicanghai/p/9539513.html

阅读(345) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~