写点什么

适配 PyTorch FX,OneFlow 让量化感知训练更简单

作者:OneFlow
  • 2023-03-09
    重庆
  • 本文字数:11652 字

    阅读完需:约 38 分钟

适配PyTorch FX,OneFlow让量化感知训练更简单

作者 | 刘耀辉

审稿 | BBuf、许啸宇


1、背景


近年来,量化感知训练是一个较为热点的问题,可以大大优化量化后训练造成精度损失的问题,使得训练过程更加高效。


Torch.fx 在这一问题上走在了前列,使用纯 Python 语言实现了对于Torch.nn.Module的解析和向 IR 的转换,也可以提供变换后的 IR 对应的 Python 代码,在外部则是提供了简洁易用的 API,大大方便了量化感知训练过程的搭建。此外,Torch.fx 也有助于消除动态图和静态图之间的 Gap,可以比较方便地对图进行操作以及进行算子融合。


OneFlow 紧随其后添加了针对 OneFlow 的 fx,即 One-fx,在安装 One-fx 之后,用户可以直接调用oneflow.fx,也可以直接通过import onefx as fx进行使用。


one-fx 地址:https://github.com/Oneflow-Inc/one-fx


One-fx 实现代码中绝大部分是对于 Torch.fx 的 fork,但根据 OneFlow 和 PyTorch 之间存在的差别进行了一些适配或优化。本文将围绕 One-fx 适配方式以及在 OneFlow 中的应用展开。


2、FX 主要模块


  • Symbolioc Trace

  • Graph Module

  • Interpreter

  • Proxy

  • Passes


其中,前 4 个模块共同实现了 fx 的基本功能,Graph Module 和 Proxy 又是 Symbolic Trace 的基础,Passes 则是在此基础上的扩充。



Symbolic Trace 的基本概念如上图所示,最基本的模型运行过程就是从模型定义到模型执行这样一个流程。


fx 则是进行了非侵入式的解析,将模型执行过程转成一张图,这张图中包含了很多个 Node,每一个 Node 都包含了模型中的子模块或者函数调用信息,然后用户可以很方便地获取到所有的 Node,并对其进行一些变换操作,最后通过 GraphModule 重新生成一个模型定义,并对其执行。


其中,在进行模型解析的时候,节点之间变量传递也均使用代理后的变量,如y = oneflow.relu(x),实际上 x 和 y 是Proxy(x)Proxy(y)


3、One-fx 实现方式


这里给出一个 Fx 最简单的用例,以方便后续对于实现方式的介绍。

import oneflow
class MyModule(oneflow.nn.Module): def __init__(self): super().__init__() self.linear = oneflow.nn.Linear(512, 512)
def forward(self, x): x = self.linear(x) y = oneflow.ones([2, 3])
x = oneflow.relu(x) return y
m = MyModule()
traced = oneflow.fx.symbolic_trace(m)print(traced.code)"""def forward(self, x): linear = self.linear(x); x = None relu = oneflow.relu(linear); linear = None _tensor_constant0 = self._tensor_constant0 return _tensor_constant0"""
复制代码


函数代理


代理,即 fx 中的 Proxy 模块,目的是在每次进行函数或模块调用的时候添加一些额外操作,使得对模型的解析和重建得以进行,而包装则是适配代理的一种方式。


torch.fx 中,对于nn.Module的包装比较易于理解,每当待解析 Module 中出现了继承自nn.Module的对象,那么就将其__call__函数替换成包装过的函数。然而,对于 pytorch 的函数的代理的实现要更“绕”一些,是借助了__torch_function__这一机制(https://github.com/pytorch/pytorch/blob/c7c723897658eda6298bb74d92e4bb18ab4a5fe3/torch/overrides.py),限于篇幅原因这里不专门对其进行介绍。比较关键的点是,OneFlow 中没有这一机制,如果需要添加,那么会是规模很大的、侵入性的,于是 One-fx 的实现就需要找其它路径。


我们使用的解决方式是搜索oneflowoneflow.nn.functionaloneflow._C等模块中的 Callable,并去除其中属于类的部分,然后对其余函数进行包装,在每次解析模型之前,会将这些模块的__dict__中对应项替换成包装后的函数,并且在解析模型之后重新将这些项进行还原。对于 constructor 类型的函数,如onesrandn等则不进行代理,直接运行,在最终构建图的时候作为 constant 来处理。


对于函数的包装部分源码实现如下,每次运行代理后的函数,会先判断该函数的入参中有没有 Proxy 变量,如果有,那么将会创建一个call_function类型的节点并返回 Proxy 包装后的节点,否则直接调用原函数并返回结果。


def _create_wrapped_func(orig_fn):    @functools.wraps(orig_fn)    def wrapped(*args, **kwargs):        # 判断参数中是否存在proxy变量        proxy = _find_proxy(args, kwargs)        if proxy is not None:            # 如果参数中有Proxy变量,创建节点并返回Proxy包装后的节点            return_proxy = proxy.tracer.create_proxy(                "call_function", orig_fn, args, kwargs            )            return_proxy.node.meta["is_wrapped"] = True            return return_proxy        # 如果没有Proxy变量,直接调用原函数        return orig_fn(*args, **kwargs)
return wrapped
复制代码


其中,return_proxy = proxy.tracer.create_proxy("call_function", orig_fn, args, kwargs)这行代码指定了使用与入参相同的 Tracer 来创建节点并返回结果,create_proxy函数定义的主要部分如下,创建节点并在 Proxy 包装后返回。


def _create_wrapped_func(orig_fn):    @functools.wraps(orig_fn)    def wrapped(*args, **kwargs):        # 判断参数中是否存在proxy变量        proxy = _find_proxy(args, kwargs)        if proxy is not None:            # 如果参数中有Proxy变量,创建节点并返回Proxy包装后的节点            return_proxy = proxy.tracer.create_proxy(                "call_function", orig_fn, args, kwargs            )            return_proxy.node.meta["is_wrapped"] = True            return return_proxy        # 如果没有Proxy变量,直接调用原函数        return orig_fn(*args, **kwargs)
return wrapped
复制代码


而其中的create_node方法,实际上是调用了Tracer.graph.create_node,在图中创建节点,主要部分代码如下,其中 op 就是 fx IR 中的 op,代表了节点类型,而 target 则是节点的操作主体,在上面的例子中就是orig_func


因此,当我们自定义的Module中的forward函数中的所有调用都被包装之后,实际上再运行 forward 的时候,就会依次在Tracer.graph中创建节点,这也正是symbolic_trace的基本思路。


def create_node(self, op: str, target: 'Target',                    args: Optional[Tuple['Argument', ...]] = None,                    kwargs: Optional[Dict[str, 'Argument']] = None,                    name: Optional[str] = None,                    type_expr: Optional[Any] = None) -> Node:    # 此处有一些assert
# 创建一个节点名称,避免重复 candidate = name if name is not None else self._target_to_str(target) name = self._graph_namespace.create_name(candidate, None) # 创建节点 n = Node(self, name, op, target, args, kwargs, type_expr)
# 建立名称与节点的映射关系 self._graph_namespace.associate_name_with_obj(name, n)
return n
复制代码


而对于 symbolic_trace 过程,其核心就是Tracer.trace。这个方法可以分为两部分,一个是预处理部分,一个是主干部分。其中预处理过程大致定义如下,主要任务是初始化 Graph、确立模型以及 forward 函数和创建包装后的参数。


如前面所提及的,symbolic trace 的基本思路是借助 Proxy 变量以及包装后的函数,在每次调用的时候都创建一个节点,因此,forward 函数的输入也需要用 Proxy 进行包装,这一步定义在Tracer.create_args_for_root中。


def trace(        self,        root: Union[oneflow.nn.Module, Callable[..., Any]],        concrete_args: Optional[Dict[str, Any]] = None,    ) -> Graph:    # 确定模块主体以及forward函数,其中fn即forward函数    if isinstance(root, oneflow.nn.Module):        self.root = root
assert hasattr( type(root), self.traced_func_name ), f"traced_func_name={self.traced_func_name} doesn't exist in {type(root).__name__}"
fn = getattr(type(root), self.traced_func_name) self.submodule_paths = {mod: name for name, mod in root.named_modules()} else: self.root = oneflow.nn.Module() fn = root
tracer_cls: Optional[Type["Tracer"]] = getattr(self, "__class__", None) # 在Tracer中初始化一张图 self.graph = Graph(tracer_cls=tracer_cls) self.tensor_attrs: Dict[oneflow.Tensor, str] = {} # 这个子函数用于收集模型中所有Tensor类型的变量 def collect_tensor_attrs(m: oneflow.nn.Module, prefix_atoms: List[str]): for k, v in m.__dict__.items(): if isinstance(v, oneflow.Tensor): self.tensor_attrs[v] = ".".join(prefix_atoms + [k]) for k, v in m.named_children(): collect_tensor_attrs(v, prefix_atoms + [k])
collect_tensor_attrs(self.root, [])
assert isinstance(fn, FunctionType)
# 获取fn所在模块的所有可读变量 fn_globals = fn.__globals__ # 创建包装后的参数 fn, args = self.create_args_for_root( fn, isinstance(root, oneflow.nn.Module), concrete_args )
复制代码


随后则是 trace 的主干部分,这一部分大致代码如下,主要任务是对函数、方法、模块进行必要的包装,然后在 Graph 中创建节点,完成整个图的信息。


其中,我们会创建一个 Patcher 环境并在其中进行这些过程,这是因为对于函数和方法的包装会直接改变掉某些包中对应函数或方法的行为,为了不让这种行为的改变溢出到trace的范围之外,在每次进行包装的时候会在 Patcher 中记录本次操作,然后在_Patcher.__exit__中根据记录的操作一一还原现场。


# 下面代码仍然是`trace`函数的一部分
# 定义对于`nn.Module`的getattr方法的包装@functools.wraps(_orig_module_getattr)def module_getattr_wrapper(mod, attr): attr_val = _orig_module_getattr(mod, attr) return self.getattr(attr, attr_val, parameter_proxy_cache)
# 定义对于`nn.Module`的forward方法的包装@functools.wraps(_orig_module_call)def module_call_wrapper(mod, *args, **kwargs): def forward(*args, **kwargs): return _orig_module_call(mod, *args, **kwargs)
_autowrap_check( patcher, getattr(getattr(mod, "forward", mod), "__globals__", {}), self._autowrap_function_ids, ) return self.call_module(mod, forward, args, kwargs)# 这里Patcher的作用是在退出这一环境的时候恢复现场,避免包装函数、方法的影响溢出到`trace`之外。with _Patcher() as patcher: # 对`__getattr__`和`nn.Module.__call__`这两个方法默认进行包装 patcher.patch_method( oneflow.nn.Module, "__getattr__", module_getattr_wrapper, deduplicate=False, ) patcher.patch_method( oneflow.nn.Module, "__call__", module_call_wrapper, deduplicate=False ) # 对预定好需要进行包装的函数进行包装 _patch_wrapped_functions(patcher) _autowrap_check(patcher, fn_globals, self._autowrap_function_ids) # 遍历所有需要对其中函数进行自动包装的package for module in self._autowrap_search: if module is oneflow: dict = {} # 当package为oneflow时,对此进行特殊处理,单独分出一个字典存放原本`oneflow.__dict__`中的内容 for name, value in module.__dict__.items(): if not isinstance(value, oneflow.nn.Module) and not value in _oneflow_no_wrapped_functions: dict[name] = value _autowrap_check_oneflow( patcher, dict, module.__dict__, self._autowrap_function_ids ) else: _autowrap_check( patcher, module.__dict__, self._autowrap_function_ids ) # 创建节点,这里的`create_node`调用实际上只是创建了最后一个节点,即输出节点。 # 但是这里`fn`就是forward函数,在运行这一函数的时候,就会如前面所说依次创建节点。 self.create_node( "output", "output", (self.create_arg(fn(*args)),), {}, type_expr=fn.__annotations__.get("return", None), )
复制代码


其中,_patch_wrapped_functions的实现如下:


def _patch_wrapped_functions(patcher: _Patcher):    # `_wrapped_fns_to_patch`中包含了所有需要自动包装的函数    for frame_dict, name in _wrapped_fns_to_patch:        if name not in frame_dict:            if hasattr(builtins, name):                # 对于built-in函数,不存在于frame_dict中,单独进行处理来根据名称获取函数本身                orig_fn = getattr(builtins, name)            else:                # 如果是oneflow中指定需要包装的函数,那么就进行获取,否则抛出名称无法识别的异常                is_oneflow_wrapped_function, func = is_oneflow_wrapped_function_and_try_get(name)                if is_oneflow_wrapped_function:                    orig_fn = func                else:                    raise NameError("Cannot deal with the function %s."%name)        else:            # 如果函数名称已经存在于frame_dict中,直接通过字典查询来获得函数            orig_fn = frame_dict[name]        # 创建包装后的函数并进行`patch`,即定义当trace过程结束的时候,如何还原现场        patcher.patch(frame_dict, name, _create_wrapped_func(orig_fn))        # 对于类中的方法,直接包装并patch。    for cls, name in _wrapped_methods_to_patch:        patcher.patch_method(cls, name, _create_wrapped_method(cls, name))
复制代码


全局包装


在模型的 forward 函数中,我们有时不仅会用到框架自带的模块或者函数,有点时候还需要用到自定义的函数或者 built-in 函数,对于这种情况如果不进行处理,那么自然无法接受Proxy(x)的入参。fx 中提供了fx.wrap这一 API,当用户需要调用这部分函数的时候,可以实现使用fx.wrap(func)使其被包装。


例如:


import oneflow
oneflow.fx.wrap(len)class MyModule(oneflow.nn.Module): def __init__(self): super().__init__() self.linear = oneflow.nn.Linear(512, 512)
def forward(self, x): x = self.linear(x) + len(x.shape) return x
traced = oneflow.fx.symbolic_trace(MyModule())print(traced.code)"""def forward(self, x): linear = self.linear(x) getattr_1 = x.shape; x = None len_1 = len(getattr_1); getattr_1 = None add = linear + len_1; linear = len_1 = None return add"""
复制代码


但是其局限性在于,如果 Module 的源代码是来自其它库,那么在调用的地方使用fx.wrap是不起作用的,在 oneflow 和 torch 中都会有这一问题。然而 flowvision 中有多处使用了 built-in function,因此我们添加了一个 API,即global_wrap,原理比较简单,就是直接对某个函数所在的包的__dict__进行修改,用法如下:


# MyModule来自其它包with oneflow.fx.global_wrap(len):    m = MyModule()
traced = oneflow.fx.symbolic_trace(m) print(traced.code) """ def forward(self, x): linear = self.linear(x); x = None getattr_1 = linear.shape len_1 = len(getattr_1); getattr_1 = None relu = oneflow.relu(linear); linear = None add = relu + len_1; relu = len_1 = None return add """
复制代码


使用 with 关键字的原因是这种实现方式是直接修改了某个包的__dict__,对于其它地方的调用也会产生影响,因此需要将其限制在一定范围内。此外,包装后的函数包含了对类型的判定等一系列操作,也会极大影响 built-in 函数的性能。


其它适配


其它地方的处理都比较简单,不需要对实现方式做修改,只需要将细节部分对齐即可,这也体现出 oneflow 和 pytorch 在前端部分的高度兼容性。


4、IR 设计


fx 的 IR 设计遵循以下几个原则:


  • 避免支持长尾分布,复杂的样例。主要关注经典模型的程序捕获和变换。

  • 使用机器学习从业者已经熟悉的工具和概念,例如 Python 的数据结构和 PyTorch 中公开记录的算子 。

  • 使程序捕获过程具有高度可配置性,以便用户可以为长尾需求实现自己的解决方案。


fx 的 IR 主要由几个部分组成;


  • opcode:即当前操作的类型,可以是 placeholder, get_attr, call_function, call_method, call_module, output

  • name:即给当前操作的命名。

  • target:当前操作的实体,例如对于 call_function 类型的操作,可能这一属性会是<built-in function len>

  • args 和 kwargs:指定当前操作的参数。


通过print_tabular这一 API 可以很方便美观地打印出 fx 中的 IR,例如对于以下的 MyModule 模型,我们可以打印出其 IR:


import oneflow
class MyModule(oneflow.nn.Module): def __init__(self, do_activation : bool = False): super().__init__() self.do_activation = do_activation self.linear = oneflow.nn.Linear(512, 512)
def forward(self, x): x = self.linear(x) y = oneflow.ones([2, 3])
x = oneflow.topk(x, 10) return x.relu() + y
traced = oneflow.fx.symbolic_trace(MyModule())traced.graph.print_tabular()
"""opcode name target args kwargs------------- ----------------- ------------------------ ------------------------- --------placeholder x x () {}call_module linear linear (x,) {}call_function topk <built-in function topk> (linear, 10) {}call_method relu relu (topk,) {}get_attr _tensor_constant0 _tensor_constant0 () {}call_function add <built-in function add> (relu, _tensor_constant0) {}output output output (add,) {}"""
复制代码


尽管 fx 的 IR 不算强大(例如不能处理动态控制流),但是定义非常简洁,实现简单,对于用户来讲上手门槛相对低很多。


5、One-fx 应用举例


OP 替换


下面的例子展示了如何将 add 操作全部替换成 mul 操作。


import oneflowfrom oneflow.fx import symbolic_traceimport operator
class M(oneflow.nn.Module): def forward(self, x, y): return x + y, oneflow.add(x, y), x.add(y)
if __name__ == '__main__': traced = symbolic_trace(M())
patterns = set([operator.add, oneflow.add, "add"])
for n in traced.graph.nodes: if any(n.target == pattern for pattern in patterns): with traced.graph.inserting_after(n): new_node = traced.graph.call_function(oneflow.mul, n.args, n.kwargs) n.replace_all_uses_with(new_node) traced.graph.erase_node(n)
traced.recompile()
traced.graph.print_tabular()
print(traced.code)
复制代码


性能分析


以下代码展示如何使用 fx 进行模型的性能分析,将原本的模型通过 symbolic_trace 解析成各个节点,再在其中插入测试性能的操作。


import oneflowimport flowvision.models as modelsimport statistics, tabulate, timefrom typing import Any, Dict, List
class ProfilingInterpreter(oneflow.fx.Interpreter): def __init__(self, mod : oneflow.nn.Module): gm = oneflow.fx.symbolic_trace(mod) super().__init__(gm)
# 记录总运行时间 self.total_runtime_sec : List[float] = [] # 记录各个节点运行时间 self.runtimes_sec : Dict[oneflow.fx.Node, List[float]] = {}
# 重写`run`方法,本质上是对基类`run`方法的简单封装,在运行前后记录时间点。 # 这一方法是Graph整体运行的入口。 def run(self, *args) -> Any: t_start = time.time() return_val = super().run(*args) t_end = time.time() self.total_runtime_sec.append(t_end - t_start) return return_val
# 同上,重写`run_node`方法,不需要自己写细节实现,只需要在对基类的`run_node`调用前后记录时间点即可 # 这一方法是Graph中运行每个Node的入口。 def run_node(self, n : oneflow.fx.Node) -> Any: t_start = time.time() return_val = super().run_node(n) t_end = time.time() self.runtimes_sec.setdefault(n, []) self.runtimes_sec[n].append(t_end - t_start) return return_val
# 定义如何打印性能测试结果 def summary(self, should_sort : bool = False) -> str: # 存储每个节点的打印信息 node_summaries : List[List[Any]] = [] # 由于模块会被调用多次,所以这里计算一下平均的运行总时长 mean_total_runtime = statistics.mean(self.total_runtime_sec)
for node, runtimes in self.runtimes_sec.items(): mean_runtime = statistics.mean(runtimes) # 计算节点运行时间占总时间的比例 pct_total = mean_runtime / mean_total_runtime * 100 # 记录节点信息、节点平均运行时长和节点运行时间占总时间的比例 node_summaries.append( [node.op, str(node), mean_runtime, pct_total])
# 如果需要,安按照运行时间进行排序 if should_sort: node_summaries.sort(key=lambda s: s[2], reverse=True)
# 以下是借助tabulate库进行格式化来美化显示效果 headers : List[str] = [ 'Op type', 'Op', 'Average runtime (s)', 'Pct total runtime' ] return tabulate.tabulate(node_summaries, headers=headers)

if __name__ == '__main__': rn18 = models.resnet18() rn18.eval() input = oneflow.randn(5, 3, 224, 224) output = rn18(input) interp = ProfilingInterpreter(rn18) interp.run(input) print(interp.summary(True))
复制代码


效果如下:



算子融合


以下代码演示如何借助 fx 将模型中的卷积层和 BN 层进行融合,对于这种组合,并不需要引入新的算子,只需要对原本 conv 的权重进行操作即可。可以参考:https://nenadmarkus.com/p/fusing-batchnorm-and-conv/


import sysimport oneflowimport oneflow.nn as nnimport numpy as npimport copyfrom typing import Dict, Any, Tuple
# 通过直接对权重进行运算的方式进行Conv和BN的融合def fuse_conv_bn_eval(conv, bn): assert(not (conv.training or bn.training)), "Fusion only for eval!" fused_conv = copy.deepcopy(conv)
fused_conv.weight, fused_conv.bias = \ fuse_conv_bn_weights(fused_conv.weight, fused_conv.bias, bn.running_mean, bn.running_var, bn.eps, bn.weight, bn.bias)
return fused_conv
# 权重融合方式def fuse_conv_bn_weights(conv_w, conv_b, bn_rm, bn_rv, bn_eps, bn_w, bn_b): if conv_b is None: conv_b = oneflow.zeros_like(bn_rm) if bn_w is None: bn_w = oneflow.ones_like(bn_rm) if bn_b is None: bn_b = oneflow.zeros_like(bn_rm) bn_var_rsqrt = oneflow.rsqrt(bn_rv + bn_eps)
conv_w = conv_w * (bn_w * bn_var_rsqrt).reshape([-1] + [1] * (len(conv_w.shape) - 1)) conv_b = (conv_b - bn_rm) * bn_var_rsqrt * bn_w + bn_b
return oneflow.nn.Parameter(conv_w), oneflow.nn.Parameter(conv_b)
# 根据字符串对名称进行分割,比如`foo.bar.baz` -> (`foo.bar`, `baz`)def _parent_name(target : str) -> Tuple[str, str]: *parent, name = target.rsplit('.', 1) return parent[0] if parent else '', name
def replace_node_module(node: oneflow.fx.Node, modules: Dict[str, Any], new_module: oneflow.nn.Module): assert(isinstance(node.target, str)) parent_name, name = _parent_name(node.target) setattr(modules[parent_name], name, new_module)
# 定义对模型进行融合操作的过程def fuse(model: oneflow.nn.Module) -> oneflow.nn.Module: model = copy.deepcopy(model) # 先通过fx.symbolic_trace获取一个GraphModule fx_model: oneflow.fx.GraphModule = oneflow.fx.symbolic_trace(model) modules = dict(fx_model.named_modules())
# 遍历GraphModule中的所有节点,分别进行操作 for node in fx_model.graph.nodes: # 跳过所有不是module的节点 if node.op != 'call_module': continue # 检测到conv+bn的结构后进行融合操作 if type(modules[node.target]) is nn.BatchNorm2d and type(modules[node.args[0].target]) is nn.Conv2d: # conv的输出同时被其它节点使用,即conv后连接两个节点时无法融合 if len(node.args[0].users) > 1: continue conv = modules[node.args[0].target] bn = modules[node.target] fused_conv = fuse_conv_bn_eval(conv, bn) replace_node_module(node.args[0], modules, fused_conv) # 对图中的边进行置换,对于用到bn输出的节点,要更改它们的输入 node.replace_all_uses_with(node.args[0]) # 移除旧的节点 fx_model.graph.erase_node(node) fx_model.graph.lint() # 重新建图(构造模型) fx_model.recompile() return fx_model

if __name__ == '__main__': # 以下引入flowvision中的resnet 18模型,并进行融合前后的benchmark比较 import flowvision.models as models import time
rn18 = models.resnet18().cuda() rn18.eval()
inp = oneflow.randn(10, 3, 224, 224).cuda() output = rn18(inp)
def benchmark(model, iters=20): for _ in range(10): model(inp) oneflow.cuda.synchronize() begin = time.time() for _ in range(iters): model(inp) return str(time.time()-begin)
fused_rn18 = fuse(rn18) unfused_time = benchmark(rn18) fused_time = benchmark(fused_rn18) print("Unfused time: ", benchmark(rn18)) print("Fused time: ", benchmark(fused_rn18)) assert unfused_time > fused_time
复制代码


6、未来计划


  • 基于 fx 进行 8bit 量化感知训练和部署

  • 基于 fx 进行算子融合

  • eager 模式下基于 fx 获得模型更精确的 FLOPs 和 MACs 结果


参考文献

1.https://pytorch.org/docs/stable/fx.html

2.https://github.com/Oneflow-Inc/one-fx

3.https://pytorch.org/tutorials/intermediate/fx_conv_bn_fuser.html

4.https://pytorch.org/tutorials/intermediate/fx_profiling_tutorial.html

5.https://zhuanlan.zhihu.com/p/449908382


其他人都在看

深度学习框架量化感知训练的思考

GPT-3/ChatGPT复现的经验教训

超越ChatGPT:大模型的智能极限

Jasper狂飙:AIGC现象级应用的增长秘笈

比快更快,开源Stable Diffusion刷新作图速度

OneEmbedding:单卡训练TB级推荐模型不是梦

GLM训练加速:性能最高提升3倍,显存节省1/3


欢迎 Star、试用 OneFlow 最新版本:https://github.com/Oneflow-Inc/oneflow/

发布于: 刚刚阅读数: 2
用户头像

OneFlow

关注

不至于成为世界上最快的深度学习框架。 2022-03-23 加入

★ OneFlow深度学习框架:github.com/Oneflow-Inc/oneflow ★ OF云平台:oneflow.cloud

评论

发布
暂无评论
适配PyTorch FX,OneFlow让量化感知训练更简单_人工智能_OneFlow_InfoQ写作社区