免费咨询热线

13621929115
公司新闻
您的位置: 主页 > 新闻动态 > 公司新闻

风力发电模型

发布日期:2021-09-15 16:13浏览次数:
 
背  景
MegEngine 提供从练习到部署完整的量化支持,包括量化感知练习以及练习后量化,凭借“练习推理一体”的特性,MegEngine 更能保证量化之后的模型与部署之后的效果一致。 
总  结
更多接口细节可以参考官网文档,MegEngine Website:https://megengine.org.cn
from megengine.quantization.quantize import quantize
QFloat → Q 并导出用于部署:
Float → QFloat:
下文简朴说明一下在 MegEngine 中转换一个 ResNet 网络的全流程代码:
这样的好处在于,用户可以控制每一处量化过程的细节,可以分别采用不同量化算子和数值类型。 
使用:
以上是对各个平台推理加速效果的整体先容,更多更细节的先容可以期待之后的系列文章。 
本文简朴先容了神经网络模型实际应用在移动平台必不可少的一步——量化,以及天元(MegEngine )在量化上做的一些工作:包括底层针对不同平台的一些优化效果,在用户接口使用上的一些设计理念。 
ARM 平台一般是指手机移动端,其系统架构和底层指令都不同于我们熟知的电脑 CPU,而跟着架构的变迁,不同架构之间的指令也存在不兼容的题目。 
如上图,用户首先在普通 Module 长进行正常的模型练习工作。之后可以再转换至 Q 模型上,通过 trace.dump 接口就可以 直接导出进行部署。练习结束后可以转换至 QFloat 模型上,通过配置不同的 Observer 和假量化算子来选择不同的量化参数 scale 获取方式,从而选择进行 QAT 或 Calibration 后量化。在目前开源的版本中,针对三大平台(X86、CUDA、ARM)都有非常具体的支持,尤其是 ARM <b>模具厂车间治理轨制</b> 平台。为此,MegEngine 针对 ARM v8.2 前后版天职别实现了不同的优化:
ARM 平台
一般在通用计算平台上,浮点计算是最常用的计算方式,所以大部门指令也是针对浮点计算的,这使得量化模型所需的定点计算机能往往并不理想,这就需要针对各个平台优化其定点计算的机能。 
量化部门作为模型推理部署的重要步骤,是业界在大规模产业应用当中极为关注的部门,它在 MegEngine 的底层优化中也占了很大的比重。 
X86 平台是指 Intel CPU 平台,近年来跟着深度学习的发展,其也慢慢提供了针对定点运算更多的支持。 
除了底层实现上<b>中航产业飞机模型官网</b> 的加速与优化,在 Python 侧练习部门,MegEngine 对接口也有良多细<b>国产产业设计软件</b>节设计,使得整体代码逻辑清楚简洁。分别代表上文提及的带假量化算子的 QFloat 模型与 Q 模型,并提供普通 Module → QATModule → QuantizedModule 三阶段的转换接口。 
Type3 和 Type4 则需要在浮点模型练习时就插入一些 假量化(FakeQuantize)算子,模拟量化过程中数值截断后精度降低的情形,故而<b>产业设计模型制作塑料板</b>称为 量化感知练习(Quantization Aware Training, QAT)。 
拔高 QFloat 迫临 Float: 这样就可以将量化模型机能尽可能恢复到 Float 的精度,这一阶段偏算法。 
ARM v8.2 主要的特性是提供了新的引入了新的 fp16 运算和 int8 dot 指令,MegEngine 基于此进行一系列细节优化(细节:四个 int8 放到一个 128 寄存器的 32 分块里一起算),终极实现了比浮点版本快 2~3 倍的速度晋升。各个版本的算子是逐一对应的,且通过公道的类继续免除了大量算子实现中的冗余代码,清楚简洁。 
而对于不支持 VNNI 指令的 CPU,一般只提供最低 int16 的数值类型支持,则通过使用 AVX2(Advanced Vector Extensions)这一向量格局,实现了 int8 推理机能与浮点机能持平。 
X86 平台
CUDA 平台是指 NVIDIA 旗下 GPU 平台,因为提供 CUDNN 和 Toolkit 系列接口以及 TensorRT 专用推理库,大部门算子可以使用官方优化,而 MegEngine <b>产业级3d打印机价格表</b>则在此基础长进行了更多细节的优化,好比如何更好地利用 GPU 的 <b>模具车间主任招聘</b>TensorCore 进行加速,不同型号之间一些差异的处理等,终极效果根据不同模型也有非常显著的推理加速。本文将扼要先容神经网络量化的原理,并与大家分享 MegEngine 量化方面的设计思路与实操教程。 
Type1 和 Type2 因为是在模型浮点模型练习之后参与,无需大量练习数据,故而转换代价更低,被称为 后量化(Post Quantization),区别在于是否需要小批量数据来 校准(Calibration);
实现量化的算法多种多样,一般按照代价从低到高可以分为以下四种:
原   理
量化的目的是为了追求极致的推理计算速度,为此舍弃了数值表示的精度,直觉上会带来较大的模型掉点,但是在使用一系列精细的量化处理之后,其在推理时的掉点可以变得微乎其微,并能支持正常的部署应用。 
针对推理优化中常用的算子融合,MegEngine 提供了一系列已 fuse 好的 Module,其对应的 QuantizedModule 版本都会直接调用底层实现好的融合算子(好比 conv_bias)。 
近年来跟着边沿计算和物联网的兴起与发展,很多移动终端(好比手机)成为了深度学习<b>工地模板怎样装</b> 应用的承载平台,甚至泛起了各式各样专用的神经网络计算芯片。 
 
。 
我们在 Module 中额外引入了两个基类:QATModule、QuantizedModule 。因为这些设备往往对计算资源和能耗有较大限制,因此在高机能服务器上练习得到的神经网络模型需要进行裁剪以缩小内存占用、晋升计算速度后,才能较好地在这些平台上运行。 
工  程
另外,因为分段函数在分段点没有梯度,所认为了使假量化操纵不影响梯度回传,就需要模拟一个梯度,最简朴的方法就是用 y=x 来模拟这一分段函数,事实证实这么做也是有效的,这种经典的操纵被称为“Straight-Through-Estimator”(STE)。 
CUDA 平台
而对于 v8.2 之前的 ARM 处理器,MegEngine 则通过对 Conv 使用 nchw44 的 layout 和细粒度优化,并立异性地使用了 int8(而非传统的 int6)下的 winograd 算法来加速 Conv 计算,最使实现能够和浮点运算媲美的速度。 
一种最直观的裁剪方式就是用更少位数的数值类型来存储网络参数,好比常见的做法是将 32 位浮点数模型转换成 8 位整数模型,模型大小减少为 1/4,而运行在特定的设备上其计算速度也能晋升为 2~4 倍,这种模型转换方式叫做量化(Quantization)。天元(MegEngine)但愿通过简洁清楚的接口设计与极致的机能优化,“深度学习,简朴开发”将不仅惠及旷视自身,也能便利所有的研究者,开发者。 
尽管不同量化算法可能在假量化的详细实现上有所区别,但是一般都会有一个“截断”的操纵,即把数值范围较大的浮点数转换成数值范围较小的整数类型,好比下图,输入一个 [-1, 1) 范围的浮点数,假如转换为 4 位整型,则最多只能表示 2^4 个值,所以需要将输入的范围划分为 16 段,每段对应一个固定的输出值,这样就形成了一个类似分段函数的图像,计算公式为:
第一步在 MegEngine 框架的“练习推理一体化”特性下得到了保证,而第<b>风力发电模型</b>二步则取决于不同的量化算法。 
在配置使用上,用户需要显式指定针对 weight、activation 分别使用哪种<b>产业模型差别</b> Observer 和 FakeQuantize,好比:
另外我们还明确了假量化算子(FakeQuantize)和 Observer 的职责,前者将主要负责对输入进行截断处理的计算部门,而后者则只会记实输入的值,不会改变输出,符合 Observer 的语义。 
在新一代至强(Xeon)处理器上,通过使用 VNNI(Vector Neural Network Instructions)指令,MegEngine 将 CPU 的 int8 推理机能优化到了浮点机能的 2~3 倍。 
这样实现的缺点在于用户在使用时需要修改原先的网络结构,使用 fuse 好的 Module 搭建网络,而好处则是用户能更直接地控制网络如何转换,比犹如时存在需要 fuse 和不需要 fuse 的 Conv 算子,比拟提供一个冗长的白名单,我们更倾向于在网络结构中显式地控制,而一些默认会进行转换的算子,也可以通过 disable_quantize 方法来控制其不进行转换。 
拉近 QFloat 和 Q: 这样练习阶段的精度可以作为终极 Q 精度的代办代理指标,这一阶段偏工程;
因为三者的精度一般是 Float > QFloat > Q ,故量化算法也就分为两步:
以常用的 Type3 为例,一个完整的量化流程分为三阶段:(1)以一个练习完毕的浮点模型(称为 Float 模型)为出发点;(2)包含假量化算子的用浮点操纵来模拟量化过程的新模型(Quantized-Float 模型或 QFloat 模型);(3)可以直接在终端设备上运行的模型(Quantized 模型,简称 Q 模型)。
标签:

产品推荐

Copyright © 2002-2020 上海润之模型设计有限公司 版权所有 展示模型,展品模型,展厅模型,展示道具,展厅展品,展品道具,模型定制,模型公司,上海模型公司 备案号:沪ICP备20018260号

13621929115