目前市面上陆续涌现的AI芯片中,有不少都采用了重新设计芯片底层架构的方式,来平衡AI芯片的性能与AI算法通用性之间“鱼与熊掌不可兼得”的矛盾,突出玩家有寒武纪、谷歌TPU项目等等。
产业界如此热火产天的发展,离不开学术界此前的长久积累。在过去的十几年里,清华微电子所的可重构计算团队一直在研究一项核心技术——“软件定义芯片”,前年,他们推出了一款代号为Thinker 1的AI芯片,这款芯片不仅能够支持人脸识别、语音识别的AI算法,而且芯片的功耗非常小——只需要7号AA电池就够让它运行一整年。
在2018年的春节前夕,智东西专门来到清华大学校园里,与GTIC 2018重磅嘉宾之一,清华大学微电子研究所所长、中国半导体行业协会IC设计分会理事长、我国半导体行业“男神”级人物魏少军教授围绕着AI芯片的话题展开了独家对话。魏少军教授有着数十年半导体行业经验,对我国半导体产业有着深刻的认识,看法往往一针见血。
他认为,目前芯片架构创新已经引起了全球各个学院/企业的广泛关注,尤其是“软件定义芯片”相关研究,更是提升AI芯片的应用范畴、适应AI算法不断变化的重要研究方向。在今明两年之内AI芯片将持续火热,但是到了2020年前后则会行业洗牌,出现第一批出局者。
芯片的性能跟通用性常常是一个“鱼和熊掌不可兼得”的选项,传统架构下,一个芯片在某些特定领域的性能越强、功耗越低,它往往就越不灵活、越不通用。举个例子,华为Mate 10里的麒麟970芯片用于手机的性能非常强大,但是它并不适用于安防摄像头、可穿戴手环等场景;同理,一个CPU能够灵活地处理众多不同任务,但是它在某些特定任务上往往性能不够强大,比如在深度神经网络训练上的性能不如GPU。
而ASIC这类专用芯片的位置,则介乎于手机SoC这类标准芯片、与CPU这类通用芯片之间——这是一个非常尴尬的地位,标准芯片虽然单个开发成本高,但是单一品类出货量非常大,很大程度上降低了芯片的单个价格;而通用芯片则相反,虽然总体出货量不高,但是单一品类的价格很高,也能够分摊研发成本。
随着芯片制造工艺的日益先进(目前已经逼近7nm),芯片制造成本也水涨船高,如今设计制造一颗10nm芯片的成本要几千万美元,综合成本高达上亿美元。
因此,如果不能保证某款单一应用场景下能够大量出货,专用芯片需要保持一定的通用性与灵活度。
最近两年间,产业界开始陆续涌现出神经网络计算专用芯片(AI芯片),寒武纪、深鉴科技、中星微电子等玩家的AI芯片产品采用的都是28nm的芯片工艺,前期从投入到流片的成本超过400万美元,单一品类出货量没有百万的级别将很难收回成本。
而除了成本之外,AI算法的演进也需要纳入考虑。由于目前人工智能算法还在不断变化、不断演进的过程中,人工智能经历了六十多年的发展才迎来了深度学习的大规模爆发,然而现在深度学习算法还有众多有待优化的方面,比如稀疏化、低功耗、小数据训练等,算法尚未定型。
此外,目前语音/文字/图像/视频等不同应用无法使用统一算法,然而许多实际生活中的AI应用程序(识别图像中的对象或理解人类语言)需要不同类型的具有不同层数的神经网络的组合。
因此,在确保AI应用性能的前提下,AI芯片需要尽可能地保持芯片通用性。
目前AI芯片企业们采用的技术方案各不相同,如果将芯片通用性作为评测坐标轴,最左边、最激进的企业会采用算法固化方案,这一做法成本低、芯片落地时间短、单一算法的性能与功耗比能够做到极致,但是极大减少了芯片的通用型和灵活性;最右边的团队(比如寒武纪、谷歌TPU等)则会设计一款全新的芯片架构,这一做法成本高昂、芯片研发周期长,但是能够在性能与芯片通用性上达到极好的平衡。
清华微电子所所长魏少军教授
清华微电子所的可重构计算团队就属于坐标轴右边的一类,从2006年开始,清华微电子所所长魏少军教授就带领着团队在持续深入研究这项重要技术——“软件定义芯片”,又称“可重构计算技术”。
“软件定义芯片”顾名思义就是让芯片根据软件进行适应与调整,这是一项专用芯片架构设计上的创新,与传统的冯诺依曼架构有着很大的区别。简单来说就是将软件通过不同的管道输送到硬件中来执行功能,使得芯片能够实时地根据软件/产品的需求改变功能,实现更加灵活的芯片设计。
也就是说,沿用这种架构设计出来的专用芯片,可以让芯片的计算能力按照软件的需求来调整适应,而不是沿用传统芯片设计的刚性架构,让应用适应架构。对于现在尚未定型/统一的各类AI算法而言,可重构计算成了AI芯片设计的一个重要研究方向。
前年(2016年),依照可重构计算芯片的框架,魏少军教授团队中的尹首一副教授带队设计研发了一款代号为Thinker 1的可重构混合神经网络计算芯片。
这款芯片不仅可以动态地调整计算和内存需求,使得芯片能够支持人脸识别和语音识别的神经网络应用,而且芯片的功耗非常小——只需要八节7号AA电池就够让它运行一整年。
Thinker 1不仅在AI性能与算法通用性上取得了突破性的进展,还获得了学术界的重要认可,在2017 ACM/IEEE ISLPED国际低功耗电子学与设计会议上,Thinker1获得了设计竞赛奖,这是中国大陆单位首次以第一完成单位获得此奖项。
魏少军教授告诉智东西,Thinker 1是一块实验性质的验证芯片,为了证明“软件定义芯片”这一架构在AI芯片设计中的可行性——效果出奇的好。随后,可重构计算团队又打造了两款Thinker系列芯片,分别为Thinker 2人脸识别芯片,能够做到6ms人脸识别(iPhone X为10ms)、准确率超过98%;以及Thinker S语音识别芯片,不仅功耗只有200多微瓦,只需要一节7号AA电池就运行一整年,而且可以进行声纹识别。
清华大学微电子所提供的Thinker芯片的显微照片
Thinker可以嵌入到很多小型设备中,包括智能手机、手表、家用机器人、或远程控制的仪器设备等。目前,研究团队与厂商沟通Thinker芯片的产业化方案,此前也有报道称最快今年三月我们就能看到第一款搭载Thinker芯片的端智能产品。不过清华微电子所将会将这一技术授权予企业使用,高校本身不会进行产业化。
魏少军教授说,清华微电子所在可重构计算上已经投入了十多年的研发,此前一直将重心放在在其他芯片的研究上,将这一架构用于AI芯片的设计并且能取得如此好的效果,完全是“意外之喜”。下一步,可重构计算团队将会加大基础研究(尤其是编译器等相关软件)的研发投入,并且进一步推动产业应用与企业合作的进程。
除了人工智能(AI)外,这项技术在信息安全芯片、可编程逻辑器件、可穿戴计算芯片等领域都获得了批量应用。魏少军教授带领的可重构计算团队也获得了国家863计划两期支持、2015年国家技术发明二等奖、2014年教育部技术发明一等奖等国家荣誉。
去年12月,清华微电子所、澜起科技、英特尔还联合推出了基于此项技术研发的津逮服务器CPU,不仅能够大幅提升云端服务器的计算能效,还能实时监测、甄别和管控,极大增强CPU芯片的硬件安全性。
目前AI应用仍处于早期阶段,主要还是集中在互联网应用,需要在云端处理,端智能方面并没有较多普及。
在这一轮兴起的人工智能(AI)浪潮中,最为火热、最频繁地被人提起的落地行业莫过于安防了——或者更准确来说,是基于安防监控摄像头的人脸识别应用。这不仅是众多AI芯片、AI平台应用厂商都在瞄准的行业,各家传统安防巨头也都跃跃欲试瞄准了AI+安防。
然而在交谈中,魏少军教授向智东西提到,现在的AI芯片应用在视频监控上,很有可能是走错路了。
由于目前的安防监控智能化还是以人脸识别为主,然而在广场、车站等远距离、广泛监控的场景下,根本没可能看清人脸,这些场景的人脸识别项目虽然是个看似纯技术角度可行的项目,然而一旦设计光照、遮挡、摄像头清晰度、以及可承载的芯片算力、网络带宽等工程化问题,情况就会变得非常复杂。
2008年北京奥运会人脸票证
一位有着传统芯片厂商与安防厂商双背景,曾参与过2008年奥运会“刷脸门票”、天安门广场安防布控等项目的AI芯片初创CEO也曾经告诉我类似的结果,中远距离内大型广场内的人脸识别项目——比如天安门广场人脸识别项目——根据去年天安门分局的调研结果显示,这项目仍旧有着巨大的实现难度,是个美好的“理论幻想”。
如果我们按照智能摄像头车牌识别的技术类推,经过了十几年的技术演进、形态变迁后,目前北京市共有65万路交通摄像头,其中能够进行智能车牌识别的只有公安的3000路、停车场的3万路,而且是只有在光照、画面对其等问题都解决了,才能在特定路口、特定场景下实现——而人脸识别远比车牌识别要复杂得多。
因此,AI安防虽然可以在局部场景(比如中短距离、室内监控、门禁刷脸、车辆识别等)落地,但是离真正的安防广泛应用还差得很远。魏少军教授说,AI只是方法、AI芯片只是手段,但是最重要的还是AI的应用落地。
魏少军教授认为,我国的芯片工艺技术与发达国家相比,还存在两三代工艺的差距;我们原来希望在2020年以前,与国际最先进制造工艺水平的差距,不要大于两代,现在看来实现较为困难。此外,在芯片行业的人才、产能、研发、设计等几大重要因素上,我们的产业缺口仍就比较明显。
我国的芯片产业目前在高端芯片的发展上遇到了很多挑战,如果我们依旧遵循传统的架构以跟随的脚步进行发展,将会始终落后于人——因此,从芯片设计底层架构上的创新尤为重要。目前我们在软件定义芯片、AI芯片等这类传统芯片业的“破冰者”方面已经取得了不错的研究成绩,值得加大投入力度。
魏少军教授认为,从产业发展规律来看,在今明两年之内AI芯片将持续火热,大家扎堆进入;但是到了2020年前后,则将会出现一批出局者,行业洗牌开始。由于目前AI算法还在不断演进汇总的过程中,最终的成功与否则将取决于各家技术路径的选择和产品落地的速度。
(来源:智东西)