Google Cloud公布最新Google Kubernetes Engine版本,号称可支持最高达65,000个节点的服务器集群,以执行超大型AI模型。
生成式AI技术演进及应用普及,推升了大型语言模型(LLM)规模及参数量也越来越大,目前许多已突破千亿参数,甚至有些来到2兆。而训练这些大型模型的加速器,需要超过1万个节点的运算基础架构。
Google Kubernetes Engine(GKE)向来可支持多节点集群,以执行AI模型训练任务。先前版本GKE可支持1.5万个集群节点,随着新版推出,现在GKE可支持高达6.5万个节点的集群。Google认为最新GKE支持的节点规模,是Amazon和微软的10倍以上。
以Google Cloud而言,现在单一节点提供了多个加速器,像是搭载4颗芯片的Cloud TPU v5e节点,因此单一集群使用最新版GKE后,最多可管理超过25万颗加速器。
Google说明新版GKE较前代的创新。首先,该公司将Key-Value数据库由etcd换成了以Google Spanner为基础的key-value数据库,后者几乎规模无上限,可改善集群运行(如启动和更新)延迟性,及无状态集群控制层(control plane)。Google并实例etcd API以提供回溯兼容性,使核心Kubernetes无需变更。
其次,Google改善了管理Kubernetes控制层的GKE基础架构,使GKE现在扩展速度更快,改善的控制层有多重效益,包括能执行高一致性的大容量运算。控制层现在能自动应对运算调节,并使延迟性维持在可预测范围。这点对执行大移动态应用如SaaS、灾难恢复和备援、批次部署以及测试环境来说尤其重要。
有了新版GKE,Google Cloud强调更能支持AI模型任务。训练AI模型时企业需要分配计算资源给多个工作负载,因此将任务集中在少量集群可提供最大调度弹性,执行推论、研究和训练的作业。Google说,由于支持6.5万个节点,现在GKE允许单一集群执行5种任务,每种任务的执行性能,都足以媲美2023年Google Cloud以5万余颗TPU v5e,缔造的10 exa-FLOPs的LLM训练速度世界纪录。