故事要从1992年开始说起。
1992年,在美国新泽西州霍姆德尔市,一处离海岸只有24公里的宁静小镇上,屹立着大半个世纪以来全球最著名的科学实验室之一——AT&T贝尔实验室。
▲AT&T贝尔实验室
在这个传奇的实验室里,不仅诞生了7位诺贝尔奖获得者,还是诞生了世界上第一个晶体管、蜂窝式电话系统、通讯卫星、有声电影、太阳能电池、C/C++语言、UNIX系统……
不仅如此,世界上第一块人工智能芯片也同样诞生于此。
1992年,马克·扎克伯格只有8岁,离他后来创办世界第一大社交网络Facebook还有12年时间,离“卷积神经网络之父”Yann LeCun加入Facebook人工智能研究院还有21年。
就在这一年,世界上第一块——同时也被当时研究频频受挫的Yann LeCun称为“可能是世界上最后一块”——神经网络芯片ANNA,就诞生AT&T贝尔实验室里。
▲1992年的AT&T贝尔实验室一景
众所周知,无论是“人工智能”、“深度学习”还是“神经网络”,这些近年来大火的概念其实都可以追溯到几十年前。但由于这些算法对于数据与计算量都有着极大的要求,当时的软硬件条件都无法满足,因而这类研究一直到近些年才大火起来。
不过,即便在众人并不看好深度学习的年月里,依然有一小群在“神经网络寒冬”里也坚持信念的科学家们,Yann LeCun就是其中一个。
1988年10月,在学习完神经科学、芯片设计,并师从多伦多大学深度学习鼻祖Geoffrey Hinton后,年仅27岁的年轻博士后Yann LeCun来到美国新泽西州,正式成为传奇的AT&T贝尔实验室的一员。
在当时的贝尔实验室里,已经有一组研究员在进行英文字母识别的研究,并且积累下了一个拥有5000个训练样本的USPS数据集——这在当时已经是一个非常庞大的数据集。
在这个数据集的帮助下,Yann LeCun在三个月内便打造并训练了第一个版本的卷积神经网络LeNet one,在字母识别上取得了有史以来最高的准确率,也正式标志着卷积神经网络的诞生。
不过,Yann LeCun的研究并没有止步在软件层面。1989年,Yann LeCun与实验室的其他实验员Bernhard Boser、Edi Sackinger等人共同撰写了一篇新论文,介绍了他们所研制的一款名为“ANNA”的神经网络芯片。
▲“ANNA”神经网络芯片
ANNA中包括64个计算单元,专门针对卷积神经网络进行了优化,其峰值吞吐量为每秒40亿次加法。
虽然在此之前,神经网络作为一个新兴的研究方向已然小有名气,有不少研究人员也尝试打造过神经网络芯片,但它们都无法放在板级(Board-Level)测试环境中,也就无法在真实世界中应用。
除了ANNA之外,贝尔实验室还曾在1991年打造过一款Net32K芯片。在Yann LeCun等人随后发布了一系列论文中,他们不仅介绍了ANNA在板级测试中的优秀表现,还展示了ANNA在利用卷积神经网络在文本倾斜检测、手写数字识别等应用上的优异表现(比单独的DSP快10到100倍),让ANNA当之无愧地成为了世界上第一块“能用的”人工智能芯片。
▲搭载ANNA的测试板原理示意图
不过,天有不测风云。1996年,AT&T公司进行了一轮拆分,通信运营业务保留在新AT&T中,一部分贝尔实验室和AT&T的设备制造部门被剥离出来形成了朗讯科技,另一部分负责计算机业务的部门则组建了NCR公司。
▲Yann LeCun(后排中间)与新AT&T实验室成员,摄于2002年
Yann LeCun留在了新AT&T的实验室里,担任AT&T实验室图像处理研究部门负责人,然而极其不幸的是,卷积神经网络的专利却被律师团队最终决定分给了NCR公司(这一专利在2007年过期)。
用Yann LeCun的话来说,“当时NCR手握卷积神经网络的专利,却完全没有人知道卷积神经网络到底是什么”,而自己却因为身处另一家公司而无法继续进行相关研究。
然而,在1996年后的时间里,科学界对神经网络的兴趣逐渐走向衰微,越来越少人进行相关研究,一直到2010年以后才重新兴起。
让我们把时间调回现在。
在过去的这十年间,AI领域迎来了一场新浪潮。
人工智能这一项新兴技术,在经历了技术积累、升级、发酵之后,正在以AI芯片作为载体而全面崛起。据智东西报道了解得知,目前全球至少有50家初创公司正在研发语音交互和自动驾驶芯片,并且至少有5家企业已经获得超过1亿美元的融资,这一数目还在不断增加当中。
除了创业市场一片兴盛外,各大科技巨头也毫不示弱。除了谷歌、苹果、华为、百度、英特尔、赛灵思等巨头陆续重拳入局AI芯片外,亚马逊也被曝出拥有449人的芯片团队,设计定制AI芯片的消息基本坐实。
作为目前全球市值最高的第五大科技企业,日活跃用户达14.5亿、月活跃用户达22亿的全球第一大社交网站Facebook自然也不会缺席这场战役。
2013年,时任纽约大学教授的Yann LeCun宣布加入Facebook,帮助建立Facebook人工智能研究院(FAIR)。
▲部分Facebook人工智能研究院成员
在成立五年以来,Facebook人工智能研究院已经在美国加州门洛帕克(Facebook总部)、美国纽约、法国巴黎、以及加拿大蒙特利尔等地建有六所人工智能研究所,拥有超过115位科学家,各自专攻机器视觉、机器学习、自然语言处理等领域,包括何凯明、田渊栋等国内熟悉的人工智能学者。
在Yann LeCun的带领下,Facebook人工智能研究院中不仅诞生了著名的Caffe、Caffe2深度学习开源框架,也让Facebook在这人工智能浪潮当中能够与谷歌等巨头一争高下。
早在2017年底,Facebook就已经作为英特尔的首位合作伙伴,内部测试了英特尔AI云端芯片Spring Crest,并与英特尔合作进行了AI芯片的研发与优化,一时间有关“Facebook要打造自己的云服务器AI芯片”的传言尘嚣甚起。
不过我们综合各方线索来看,Facebook最先打造的应该并不会是一款能够支持多种AI应用的通用云端AI芯片,而是一款主攻视频的AI芯片,不过目测这款芯片不会在近期与众人见面。
从2018年年中开始,Facebook就在AI芯片方面频频发声。
5月,在巴黎Viva科技峰会上,Yann LeCun首次直接披露了Facebook在AI芯片方面的具体方向:视频实时监测。
由于这两年来视频直播的盛行,越来越多用户选择使用这种方式分享自己的生活,这位Facebook的视频实时分析、实时审核过滤带来了极大的压力。
2017年的复活节时,一名男子在Facebook上直播开枪杀人,该视频在Facebook上停留了超过2个小时后才被删除,引起了社会的极大恐慌。
传统软硬件不仅分析过滤不及时,对于越来越大量的视频压缩、审核、监管等应用,传统软硬件在计算资源和功耗控制上都达不到要求。
Yann LeCun说,“Facebook之所以要自己做芯片,是因为传统资源无法满足新时代需求,传统方法已经失效,我们需要一款AI芯片,实时分析和过滤视频内容。”
顺便一提的是,今年1月,Yann LeCun宣布将不再担任FAIR负责人,将由前IBM大数据集团CTO Jérôme Pesenti接任。LeCun表示他将改任Facebook的首席AI科学家,专注于AI学术研究以及对FAIR进行方向性指导。
▲Shahriar Rabii的LinkedIn界面
目前。Facebook的AI芯片团队还处在早期的起步组建阶段。就在上周,Facebook才刚刚从谷歌挖来一员大将——谷歌前芯片产品开发部门负责人Shahriar Rabii跳槽,担任Facebook副总监及芯片部分负责人一职。
Shahriar Rabii曾在谷歌工作7年,离职前职位为高级工程师主管、芯片产品开发部门负责人。他负责带队进行了大量针对消费者用户的芯片研发工作,其中最值得一提的是为“谷歌亲儿子”Pixel智能手机打造的Visual Core定制化AI视觉芯片,这枚芯片能够为智能手机摄像头带来机器学习AI功能。
更早之前的4月19日,Facebook的第一条AI芯片招聘信息开始在线上流传。在招聘信息当中,Facebook宣布即将为招聘一名管理者(Manger)来组建“端对端SoC/ASIC固件和驱动开发组织”,该管理者需要“针对多个垂直领域开发定制解决方案,包括人工智能和机器学习”。
在同日的另一则招聘启事中,Facebook则表示正在招聘“ASIC&FPGA设计工程师”,该工程是需要拥“架构和设计半定制和全定制ASIC的专业知识、能够与软件和系统工程师合作,了解当前硬件的局限性,并利用他们的专业知识打造针对多种应用(包括人工智能/机器学习,压缩,视频解码等)的定制解决方案。
时至今日,Facebook依然有不少AI芯片相关的岗位招聘挂在LinkedIn页面上,并且在持续更新中:比如五天前跟新的一条“内存&芯片产品总监”招聘信息、以及三天前更新的两条“ASIC&FPGA工程师”、“ASIC/FPGA技术项目主管”招聘信息。
从高调挖人到大规模招聘,可见Facebook在AI芯片的决心与投入。不过如果按照芯片18个月的设计制造周期来说,如果Facebook现在才开始招募团队,那么离芯片真正量产就还有至少一年时间。
随着AI算法的进一步发展,人工智能在不同应用领域的分化也越来越明显。对于任何一个业务体量巨大的科技公司而言,专为自己业务线所打造的定制化AI芯片能够带来的成本缩减与效率提升有着巨大的想象力,任何一个科技巨头都不会轻易放过这一机会。
虽然硬件研发一直都不是Facebook的强项,但是如果瞄准的只是视频压缩与审查这一领域,那么AI芯片打造的难度将会大大小于通用云端AI芯片(君不见英特尔的AI芯片一再推迟面世),可能会比预期更早与世人见面。
(来源:智东西)