免费咨询热线

13621929115
常见问题
您的位置: 主页 > 新闻动态 > 常见问题

动态模型

发布日期:2023-04-05 18:02浏览次数:


    欢迎来到《每周CV论文推荐》在这个专栏里,还是本着有三AI一贯的原则,专注于让大家能够系统性完成学习,所以我们推荐的文章也必定是同一主题的动态模型压缩是一类比较新颖的模型设计与优化方法,通过对模型的设计,使其面对不同的样本或区域时表现出不同的结构,从而拥有更加高效的计算,在学术界研究非常广泛,本次我概念模型们来简单给大家推荐一些初入该领域值得阅读的工作。

    作者&编辑 | 言有三1 基于提前终止的框架BranchyNet以非常简洁的形式实现了不同难度的样本在测试时运行不同网络的思想,它在正常网络通道上包含了多个旁路分支,这样的思想是基于观察到的现象,随着网络的加深,模型表征能力越来越强,大部分简单的图片可概念模型以在较浅层时学习到足以识别的特征,从而可以提前终止。

    文章引用量:900+推荐指数:✦✦✦✦✦

    [1] Teerapittayanon S, McDanel B, Kung H T. Branchynet: Fast inference via early exiting from deep neura概念模型l networks[C]//2016 23rd International Conference on Pattern Recognition (ICPR). IEEE, 2016: 2464-2469.

    [2] Figurnov M, Collins M D, Zhu Y, et al. Spat概念模型ially adaptive computation time for residual networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017: 1039-10概念模型48.

    2基于模块跳过的框架研究表明在训练时随机丢弃深度残差网络的一些残差模块,可以获得不同深度残差模型集成的效果,提高模型的泛化能力Blockdrop框架基于这个思路,从数据中学习可以丢弃的残差模块,从而实现不同输入样本使用不同的计算。

    文章引用量:800+推荐指数:✦✦✦✦✦

    [3] Wu Z, Na概念模型garajan T, Kumar A, et al. Blockdrop: Dynamic inference paths in residual networks[C]//Proceedings of the IEEE Conference on Computer Vision and Patte概念模型rn Recognition. 2018: 8817-8826.

    [4] Wang X, Yu F, Dou Z Y, et al. Skipnet: Learning dynamic routing in convolutional networks[C]//Proceedings of the E概念模型uropean Conference on Computer Vision (ECCV). 2018: 409-424.

    3 基于注意力的框架模型的计算量不仅与模型的参数量有关,也与输入数据的大小有关,如果能减小输入尺寸,降低空间维度,也可以减少计算量,Dynamic Capacity Network概念模型s就是这样的一个典型框架,通过注意力机制来选择跳过无关的背景,聚焦有意义的前景。

    文章引用量:300+推荐指数:✦✦✦✦✦

    [5] Almahairi A, Ballas N, Cooijmans T, et al. Dynamic capacity networks[C]//International概念模型 Conference on Machine Learning. PMLR, 2016: 2549-2558.

    [6] Gao X, Zhao Y, Dudziak Ł, et al. Dynamic channel pruning: Feature boosting and suppression[概念模型J]. arXiv preprint arXiv:1810.05331, 2018.

    4 与其他模型压缩方法的联系许多的模型压缩方法之间都存在联系甚至被联合使用来进一步获得计算效率更高的模型,动态模型的核心是为了动态自适应地降低模型推理过程中的计算量,这与自动化模型剪枝、自动化模型量化等技术其实是相通概念模型的。

    文章引用量:500+推荐指数:✦✦✦✦✧

    [7] Lin J, Rao Y, Lu J, et al. Runtime Neural Pruning[C]. neural information processing systems, 2017: 2181-2191.

    [8] Jin Q, Yang概念模型 L, Liao Z. Adabits: Neural network quantization with adaptive bit-widths[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Re概念模型cognition. 2020: 2146-2156.

    5 如何实战为了帮助大家掌握模型优化压缩的相关知识!我们推出了相关的专栏课程《深度学习之模型优化:理论与实践》,讲解模型剪枝、模型量化、模型蒸馏等方向的理论与实践,感兴趣可以进一步阅读:【视频课】AI必学,超10小时,4大模块,掌握模型优化核心技概念模型术!

    总结本次我们介绍了模型蒸馏的一些典型研究,从事相关方向的朋友可以通过阅读这些文章进行初步了解,模型蒸馏是掌握模型压缩任务的必经之路。

    有三AI- CV夏季划如何系统性地从零进阶计算机视觉,永久系统性地跟随我们社区学习CV的相关内容,请关注有三AI-CV夏季划组,阅读了解下文:【CV夏季划】2022概念模型年正式入夏,从理论到实践,如何系统性进阶CV?(产学研一体的超硬核培养方式)


标签:

产品推荐

Copyright © 2002-2020 上海润之模型设计有限公司 版权所有 展示模型,展品模型,展厅模型,展示道具,展厅展品,展品道具,模型定制,模型公司,上海模型公司 备案号:沪ICP备20018260号

13621929115