Simon See博士首先介绍道,从2012年的ImageNet比赛开始,深度神经网络开始逐渐走进人们的的视线当中,并从此之后一直不断发展,以图像分类为首的深度学习应用准确度越来越高、性能越来越强、应用领域也越来越广。
那么为什么会需要这种芯片呢?第一我们需要看到算法。刚刚魏老师也说过,这个算法一直在改变,无论是CNN、DNN、GANs,还有其他Deep Q-Learning,尤其是用在AlphaGo这方面。
这些种种AI芯片兴起的另一个原因,则是AI对于算力要求的不断提升。在2014年的时候,10层神经网络的计算就需要30多个GPU;而AlphaGo的第一个版本(不是最新那个AlphaZero),在训练时则需要50个GPU训练超过三个星期才能做到。
而在这期间,CNN、RNN、GANs、Deep Q-Learning等算法不断变得复杂,更是对深度学习计算硬件提出了新挑战。与2015年相比,翻译神经网络的复杂度提高了10倍;与2014年相比,语音神经网络的复杂度提高了30倍;而与2012年相比,图像深度神经网络的复杂度则提高了350倍。
除了深度神经网络日趋复杂之外,数据量也在不断增加。举个例子,一个采集225×225图像、采用ResNet-50网络的无人驾驶车的摄像头需要230Gops/30fps的计算量,需要运行77.2亿次计算。而一台无人车需要12-24个摄像头,其计算量以指数级增加。
神经网络的压缩与简化则是一个学术界与工程界都在研究讨论的重要问题。目前的深度神经网络普遍较大,无论是在云端还是在终端,都会影响网络速度,增大功耗。
此外,还可以通过网络来进行网络剪枝(Purne),先构造好整个算法网络,然后再尝试消除多余的节点,压缩网络大小。
在演讲中,Simon See博士对于AI芯片保持着十分积极的态度,他认为,从交通到健康,越来越多的行业开始拥抱AI;而随着数据量的激增,AI芯片也变得越来越重要。
不过,由于AI芯片仍属于一个技术早期的前沿科技产品,在有了芯片硬件之后,配套的软件生态(如编译器器、模拟器、开发者套件等)也需要配合跟上,打造从云到端、从硬到软的AI环境。
本文首发于微信公众号:智东西。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。