微型机器学习(tinyML)在电源管理系统中的应用
这使得系统能够针对本地指令和应用程序反馈做出快速响应,同时减少数据流量,以确保处理过程更加安全。当然,这两个区域也会进行交互,边缘节点将数据传回云端,实现跨设备或地点的汇总与分析;而全局指令和固件更新则反向传递至边缘。
这两种处理环境都得益于人工智能(AI)和机器学习(ML)的最新发展。例如,在数据中心,包含数万颗处理器(主要为GPU)的数千台服务器执行大规模并行计算,以生成和运行ChatGPT等大语言模型(LLM)。从某些指标看,这些平台的性能现在已经超越了人类。
在边缘,处理过程根据操作算法对反馈传感器和指令做出反应。但借助机器学习,算法现也能够有效地从反馈中学习;由此改进算法及其计算系数,让受控过程更为准确、高效和安全。
云端和边缘的能耗差异
在能源的使用规模层面,云计算和边缘计算存在很大的实际差异。这两种情况的能耗都必须降至最低;但数据中心的电力消耗十分巨大,据国际能源机构(IEA)估计,约为240-340太瓦时(TWh),占全球需求的1%-1.3%。人工智能和机器学习将进一步加速能源消耗;IEA预测在未来几年内将增长20%-40%,而这一数字的历史数据仅为3%左右。
与游戏和视频流媒体等按需数据处理任务不同,AI包含学习和推理两个阶段;其中,学习阶段借助数据集来训练模型。据报道,ChatGPT在这个过程中消耗了超过1.2TWh的电力。另一方面,根据de Vries的统计,处于推理或运行阶段的LLM每天可能需要消耗564MWh的电力。
而在数据处理架构的另一端,物联网(IoT)节点或可穿戴设备中的边缘计算功耗可能不超过毫瓦级。即使对于电机控制和电池管理等工业及电动汽车(EV)类应用,为控制电路预留的损耗预算也很小,无法适应AI和机器学习引入带来的大幅能耗提升。