写点什么

MegEngine

0 人感兴趣 · 34 次引用

  • 最新
  • 推荐

MegEngine 动态执行引擎 Imperative Runtime 架构解析

在之前的文章中我们介绍过 MegEngine 的 Imperative Runtime 以及它与 MegBrain、MegDNN 的关系,这篇文章中我们将介绍 Imperative 中包含的常用组件。

MegEngine 使用小技巧:如何做 MegCC 的模型性能评测

MegCC 支持了基础的 Benchmark 模块用于测试各类模型的推理性能,获取推理时各个 Kernel 的性能数据,分析模型性能瓶颈。

MegEngine 动态执行引擎 -Imperative Runtime 概述

MegEngine 是动静合一的深度学习框架,MegBrain 解决了静态图的训练和推理问题,还需要有一个“组件”负责处理动态图的训练和推理、以及 Python 侧的训练接口,于是便有了 Imperative,也就是说,Imperative Runtime 是为了动态训练而单独设计的一套新接口

MegEngine 使用小技巧:如何解读 MegCC 编译模型几个阶段 Pass 的作用

MegCC 是一个真真实实的深度学习模型编译器,具备极其轻量的 Runtime 二进制体积,高性能,方便移植,极低内存使用以及快启动等核心特点。用户可在 MLIR 上进行计算图优化,内存规划,最后通过预先写好的 code 模版进行代码生成。

MegEngine 使用小技巧:用 mperf 进行安卓 opencl 算子的 roofline 分析

roofline 分析是一种简单评估当前计算任务对当前平台计算/访存能力的利用情况的方法,可以帮助分析算子的优化方向和优化潜力。mperf 实现了安卓 mali/adreno 两种 gpu 平台的 roofline 分析能力,下面以 mali 平台为例,简单介绍一下操作步骤。

2023 开源之夏来啦!报名 MegEngine 项目,赢取万元奖金!

每个项目都有资深导师 1V1 指导,机会难得,不容错过!学生可自由选择项目,申请成功并完成项目即可获得 12000 元奖金。

MegEngine 使用小技巧:量化

常见神经网络模型所用的 Tensor 数据类型 一般是 float32 类型, 而工业界出于对特定场景的需求(极少的计算资源,极致的推理速度),需要把模型的权重和或激活值转换为位数更少的数值类型(比 int8, float16) —— 整个过程被称为量化(Quantization)。

MegEngine 使用小技巧:使用 Optimizer 优化参数

神经网络的学习的目的是找到使损失函数的值尽可能小的参数。这是寻找最优参数的问题,解决这个问题的过程称为优化(optimization)。而由于参数空间复杂、参数数量庞大等原因,使得神经网络的优化问题非常难。

如何使用 MegEngine 生态落地一个算法

MegEngine 生态工具,希望能为用户提供一个快速、高效、灵活的深度学习算法落地平台,以更好地实现算法落地。

借助 mperf 进行矩阵乘法极致优化

借助 mperf 对 SGEMM 的性能进行极致优化,走通了性能分析、瓶颈定位、优化指引的反馈回路,包教包会!

MegEngine 使用小技巧:借助 DataLoader 获取分批数据

在使用 MegEngine 进行模型训练时,首先要进行的是数据加载和预处理。在此过程中,MegEngine 中的megengine.data模块,提供了数据分批功能,其内部实现流程如下图:

MegEngine 使用小技巧:使用 Netron 实现模型可视化

近期社区有多个同学问,如何查看 MegEngine 训练出的模型网络结构。其实在去年 8 月,MegEngine 就已经集成到了 Netron 平台上。

提速还能不掉点!深度解析 MegEngine 4 bits 量化开源实现

MegEngine 开源了 4 bits 的量化的相关内容,通过 MegEngine 4 bits 量化实现的 ResNet-50 模型在 ImageNet 数据集上的精度表现与 8 bits 量化模型相差无几,并且速度是 TensorRT-v7 8 bits ResNet-50 模型的推理速度的 1.3 倍。

A100 买不到了,只有小显卡怎么训大模型

MegEngine v1.5 及以上版本,支持动态图和静态图的显存优化,显存占用可降至 1/4。

深度学习快速上手——基于 MegEngine 的 LeNet 快速训练与部署

使用 Megengine 可以快速实现常见的深度学习模型,本文将使用 Megengine 实现手写数字识别,以完成深度学习的两大步骤:训练和预测。通过本文,读者对深度学习的最基本流程和 Megengine 框架的使用方法有大致了解。

TracedModule: 更友好的模型表示方案,模型训练到部署的桥梁

TracedModule 是 MegEngine 中的一种模型格式,用于脱离模型源码对模型进行训练、量化、图手术和模型转换,它是模型训练到部署之间的桥梁。

MegCC 新版本来啦!新增 Benchmark 等工具,性能大幅提升!有奖征文活动同步启动

最新版 MegCC 新鲜出炉,新工具,新体验,本次版本针对用户使用体验以及模型推理性能进行全面提升=。

实录 | MegEngine 大 Kernel 卷积工程优化实践

本篇整理自 3.19 日 “Large Kernel Makes CNN Great Again” 专题 Meetup 中《MegEngine 大 Kernel 卷积工程优化实践》分享。

ARM 算子性能优化上手指南

做 arm 侧算子开发时,不能不关心的就是性能。本文主要就是介绍 arm 算子性能优化的常用思路,做为一个入门级的参考。文章以 ARM Cortex a55 上的 GaussianBlur 优化为例展开,并在文末对 arm 性能优化思路做了一个总结。

一个深度学习框架的年度报告

用户头像
MegEngineBot
2022-12-30

MegEngine 年度报告来啦~ 又到年终时,今年我们去繁从简,只聊技术。 浅浅盘点一下,MegEngine 的年度“大动作”。

如何写一个深度学习编译器

用户头像
MegEngineBot
2022-12-27

本文以深度学习编译器的开发、结合我们实际开发的深度学习编译器 MegCC 为例,来说明如何写一个编译器。

MegEngine Windows Python wheel 包减肥之路

用户头像
MegEngineBot
2022-12-19

本文通过讲述在支持 MegEngine Windows Python wheel 过程中遇到的问题以及解决问题的流程,此文最后的解决方法可能不是最优,欢迎留言指正。

BaseDet: 走过开发的弯路

用户头像
MegEngineBot
2022-12-15

本文在介绍 BaseDet 之外,分享在完成 BaseDet 过程中面临的问题和思考。这些内容涉及的范围比较广,有关于深度学习框架、软件工程和开源项目等诸多内容

圆桌实录 | 为什么不约而同选择了大 Kernel

用户头像
MegEngineBot
2022-12-12

在 3.19 日的 “Large Kernel Makes CNN Great Again” 专题 Meetup 中,我们组织了一次圆桌讨论,希望能通过讨论一些比较有共性的问题,碰撞出更多新想法。本篇为文字实录,enjoy~

MegPeak——让你更懂你的处理器

用户头像
MegEngineBot
2022-12-05

为了更懂我们的处理器,MegEngine 团队开发了一个工具 MegPeak,可以帮助开发人员进行性能评估,开发指导等,目前已经开源到 GitHub。

深度学习框架新手快速上手指南

用户头像
MegEngineBot
2022-11-21

新手入门深度学习框架怎么办?快速、可拓展、易于使用且支持自动求导的深度学习框架-MegEngine 配备了新手入门文档,助力初学者快速上手框架。文档借助了一系列的代码实战,有利于循序渐进地熟悉这个领域,并掌握开源深度学习框架 MegEngine 的基本使用。

Awesome MegEngineer 英雄招募帖,开源社区专属权益等你来领

用户头像
MegEngineBot
2022-11-17

MegEngine 社区优秀贡献者荣誉体系 —— “Awesome MegEngineer”上线啦!诚邀同样热爱开源的你加入!

使用 C++ 部署深度学习模型快速上手方案

用户头像
MegEngineBot
2022-11-14

本文将从获取一个训练好的 shufflenet_v2 模型出发, 讲解如何使用 MegEngine Lite 的 C++ 接口将其部署到 CPU(Linux x86 / Android Arm)环境下运行。主要分为以下小节:

MegEngine_MegEngine技术文章_InfoQ写作社区