文字
縮放
增大字体
减小字体
清华大学 包承龙:Exploring redundancy in deep neural networks

([西财新闻] 发布于 :2019-12-06 )

光华讲坛——社会名流与企业家论坛第 5642 期

 

主題:Exploring redundancy in deep neural networks

主講人:清华大学  包承龙

主持人:经济信息工程学院  蒋太翔

時間2019年12月8日(星期日)下午15:30

地點盛唐棋牌游戏-首页柳林校区格致楼J311B

主辦單位经济信息工程学院  金融智能与金融工程四川省重点实验室 科研处

 

主講人簡介:

清华大学数学科学中心助理教授。2009年本科毕业于中山大学数学系,2014年博士毕业于新加坡国立大学数学系。研究方向主要是数学图像处理中建模、算法与分析。在IEEE TPAMI,SIAM Journal Imag. Sci.,ACHA,IP 等顶级期刊以及CVPR,ICCV,NeurIPS等顶级国际会议发表过多篇文章。

 

主要內容:

The deep neural networks have been widely used in many applications and the classification accuracy increases as the network goes bigger. However, the huge computation and storage have prevented their deployments in resource-limited devices. In this talk, we will first show that there exists redundancy in current CNNs under the PAC framework. Second, we will propose the self-distillation technique that can compress the deep neural networks with dynamic inference.

深層神經網絡已被廣泛應用于許多應用中,並且隨著網絡的擴大,分類精度也隨之提高。但是,巨大的計算和存儲阻礙了它們在資源受限的設備中的部署。在本次演講中,我們將首先顯示在PAC框架下,當前的CNN存在冗余性。其次,我們將提出一種自蒸餾技術,該技術可以通過動態推理來壓縮深度神經網絡。


☆該新聞已被浏覽: 次★

打印本文】 【關閉窗口