发表于 2023-11-02北京苹芯科技有限公司
大会介绍
苹芯展位 :E46
技术分享
“
分享概述
存内计算的结构,通过降低数据的移动,大幅提高DNN的计算效率。但是过去的存算结构专注于DNN推理,而并没有对于DNN训练有足够的研究。相较于DNN推理,DNN训练对于计算精度有更高的要求。为了实现片上的DNN训练,浮点计算是一个必须的功能,同时,对于张量操作也有更多要求,这对于存内计算的设计也提出了新的要求。本项工作提出了,基于哈德玛积形式的BF16浮点存内计算结构,来实现浮点的DNN训练。我们的仿真结果显示在实现mobilenet训练时,相比于传统计算方式,可以达到91.2%的功耗节省,以及13.9%的时间节省。并且实现769.2Kb/mm2的存储密度,相比于之前的浮点存算结构实现约3.5倍的提升。