为支持人工智能(AI)、机器学习(ML)、实时分析、物联网(IoT)和5G等数据密集型用例的需求,越来越多的企业开始部署边缘工作负载。但在大多数情况下,各组织从这些工作负载中所取得的成果并不如预期。边缘计算难以实现——缺乏处理能力、空间限制和技术过时都可能导致问题。
调研机构Dimensional Research最近进行的一项调查揭示了企业级边缘计算的发展状况。这项调查收集了来自300多名存储专业人员和软件开发人员的反馈,他们都受雇于员工人数达1000名以上的大型企业,在各行各业中负责处理数据密集型工作负载。最重要的是,这项调查结果显示,各组织根本不满意其边缘工作负载的表现。只有十分之一的受访者在其边缘计算和存储性能方面给自家公司评为“A”级,而约有一半的受访者则将其评为“C”或更差。
尽管结果令人沮丧,但这项调查显示,大多数(55%)组织目前正在边缘部署工作负载。边缘计算只有在对当今许多关键用例必不可少的情况下才会成长。根据调查,边缘计算支持的主要用例包括实时分析(71%)、机器学习(71%)和物联网(56%)。虽然5G到来还有待时日,但25%的受访者表示其正在部署边缘工作负载以支持5G技术。可以预期,只有边缘计算对于支持这些基本用例至关重要,边缘部署才会成长。
那么,随着面向实时分析、机器学习和物联网等重要技术的边缘计算日益受到重视,引起所有问题的原因又是什么呢?针对在边缘侧实现这些用例所面对的最大挑战,受访者列出了以下几项:传统存储解决方案的成本(61%)、难以摄取和管理数据(55%)以及计算存储瓶颈(53%)等均为首要问题。简而言之,传统的存储解决方案太昂贵且太笨重,因而无法支持边缘工作负载。而且,鉴于边缘环境的空间有限,这些传统解决方案根本无法提供足够的功率和效率,而引起管理大量数据流的瓶颈和困扰。
那么,组织如何有效突破边缘计算的瓶颈?答案就在这项调查问卷中。为了有效支持边缘工作负载,贵公司还缺少什么?当问及这个问题时,46%的受访者表示,最重要的就是缺少可在数据存储位置直接执行计算的基础架构。
将计算直接带到存储涉及根本性的转变,即让数据可在创建之处就地进行处理。由于边缘基础架构不再需要为了处理或分析数据而在平台之间进行数据移动,因此这对在边缘侧实现数据密集型用例来说可谓抄了一条很大的近路——这类用例需要从许多不同端点接收大量数据流而工作。
根据调查结果,70%的企业都在使用GPU加速器改进边缘侧计算和存储能力,但这终究只是一种权宜之计。GPU加速器——例如组合架构、NVMe-oF架构和FPGA加速器等——确实能够恰如其分地提升边缘性能,但其进展仍不足以克服瓶颈:由于数据仍然必须在边缘平台之间移动才能进行处理或分析,因此其并未从根本上改变实现边缘计算的途径。由于边缘用例涉及大量流式数据,因此这种方法永远无法可靠地运作。
计算型存储固态硬盘是一种直接在数据存储位置执行计算的技术。这是通过名为就地(In-Situ)处理的创新概念而实现的,事实上,这项技术已经部署在一些NVMe SSD了。就地处理可以将加速和并行处理资源直接嵌入到SSD,这使得数据可以在其所在位置进行分析。
越来越多的组织开始了解到NVMe SSD的价值。目前,约有60%的受访者表示其正在边缘使用NVMe SSD,86%的受访者则计划在未来两年内增加NVMe SSD的使用。然而,只有44%的受访者知道NVMe SSD可以直接在物理存储硬盘上执行计算。随着这些企业越来越意识到NVMe SSD拥有将计算直接带入存储的真正潜力,预计其采用率将进一步提高,边缘性能也将随之大幅提升。
边缘计算正在迅速崛起,成为支持AI、ML和IoT的创新途径。然而,这些工作负载由于缺乏边缘处理能力而受到打击。目前,无论是传统存储平台还是GPU之类的权宜之计均未能真正改写游戏规则,而通过计算型存储SSD提供就地处理数据的能力,则有望改变并加速边缘计算的部署。
本文为《电子技术设计》2019年9月刊杂志文章。