人工智能(AI)本身是一种颠覆性的技术,而联合式学习(federated learning)则可能会是颠覆AI的一种方法──瑞士洛桑联邦理工学院(Ecole Polytechnique Federale de Lausanne,EPFL)教授暨嵌入式系统实验室(Embedded Systems Laboratory)总监David Atienza率先开发了一种解决方案,可替代传统集中式的机器学习(ML)。
关键的差异在于,联合式学习是在多个保存本地数据样本而不会交换它们的去中心化边缘装置或服务器上进行特定ML训练,这可降低对隐私保护的疑虑以及能源消耗,因为数据不会移动到云端或是中央数据库。
联合式学习在蔓延全球的新冠病毒疫情中也能发挥作用。Atienza领导的EPFL团队正在实验一种能结合来自各种咳嗽症状监测装置的数据,以提升初始诊断精确度的AI系统──根据世界卫生组织(WHO)统计,有三分之二的新冠病毒肺炎患者会出现干咳的症状,而医护人员若能在就医者进入急诊室时先掌握到这类症状,可早期发现确诊病患。
透过该AI系统,工程师能将从不同咳嗽样本取得的个别数据相关联,以创建一个更复杂精密的模型。Atienza接受《EE Times》访问时表示,该AI系统项目就是采用联合式学习的概念,让设计者能使用一系列传感器来观察特定的征象。虽然这些传感器无法全面观察被指派的对象,但有助于建立一个简化的模型并与其他类似的模型结合,然后生成一个完整的AI模型。
联合式学习是2017年由Google所提出,为需要利用具备庞大运算力之集中式数据中心来执行的传统机器学习提供可行替代方案,也为无力负担大型数据中心的新创公司与中小企业提供了自建ML模型的途径。此外,在大型数据中心进行训练的机器学习模型,其数据隐私保护往往是一个主要顾虑,这种新架构是在装置本地储存数据,对于隐私较有保障。
Atienza在介绍联合式学习概念时表示,人们可以想象这是收集数据以训练AI模型的中央辅助系统;而联合式学习也能让物联网(IoT)更具适应性,从位于不同据点的小型数据集(dataset)中学习。他补充指出,分散各处的传感器收集数据进行模型训练并非独立作业,而是透过一个做为数据交换数据库的(加密)共享端点。
在传感器内部执行学习时,该共享数据库或服务器会协助传感器将观察到的数据同步化,并建立共享模型。Atienza解释:“在完全分布式的学习中,没有将装置联合并同步化的数据库;因此像是传感器等装置无法互相沟通,也没有一个中央单元负责协调。”
除了完全分布式的系统会更复杂,联合式学习还有助于解决许多问题并提供良好结果。例如在医疗应用中,不同的诊所能联合开发AI模型,又不直接分享敏感的病患个资。
在医疗应用环境采用联合式学习。(图片来源:Carnegie)
联合式学习也为AI开启了全新的运算典范,工程师能执行本地的神经网络训练,并为有效的训练找到正确数据。Atienza表示,这有助于促进机器学习应用的发展,例如自然语言处理以及档案/文件处理。
他指出:“现在AI解决方案的焦点集中在人类无法做得很好的任务上,设计工程师(透过联合式学习)能在数据集中纳入可取得的数据与丛集以支持特定算法;在将数据进行分类后,就能建立更好、个人化的机器学习模型。”
联合式学习需要什么样的硬件?对此Atienza表示,相较于目前支持特定机器学习应用的AI加速器,联合式学习所需的硬件解决方案必须更“多才多艺”;他指出,像是一群迷你加速器的粗粒度可重配置数组(coarse grained reconfigurable array,CGRA)解决方案,就能针对特定使用案例进行配置。
Atienza解释,CGRA解决方案能保留一种基础架构,也就是设计工程师能在不同的AI应用使用相同的芯片,只更改芯片的可编程部分。
支持某个联合学习应用的CGRA解决方案。(图片来源:EPFL)
CGRA网状网络能藉由利用多样化运算核心(computational kernels)的可重配置解决方案提供高度灵活性;与FPGA设计相似,是紧密互连的2D可重配置单元(reconfigurable cells,RCs)网状网络结构。但这种技术能让加速器在作业层级(operation level)可编程,不同于FPGA是位层级(bit level)的可重配置数组、具备相当的功耗开销。
Atienza预期,支持这种联合式学习新技术的硬件,将会有越来越多的可配置功能,藉由芯片的编程来根据目前市场趋势、支持不同种类的AI任务;“联合式学习应用将会带动对可重新编程、利用大量迷你加速器的AI硬件之需求。”
(原文发表于ASPENCORE旗下EDN姐妹网站EETimes,参考链接 :Federated Learning Demands More Programmable Hardware,编译:Judith Cheng;责编:Demi Xia)