谷歌云更新 Kubernetes 引擎,可支持万亿参数的人工智能模型

愤怒的蜗牛

谷歌云更新 Kubernetes 引擎,可支持万亿参数的人工智能模型

生成式人工智能模型越来越大,参数已多达 2 万亿个,大型语言模型对计算和存储的需求也在增加。

谷歌云(Google Cloud)今天宣布升级旗下  Kubernetes 引擎的容量,以应对更大规模的模型,Kubernetes 引擎的容量将从目前支持 15000 个节点集群升级到支持 65000 个节点集群。Kubernetes 引擎的扩容将为处理全球最复杂且资源密集型的人工智能任务提供所需的规模和计算能力。

在人工智能加速器工作负载上训练数万亿参数的模型需要超过 10,000 个节点的集群。人工智能模型的参数指的是模型中的变量,这些变量控制着模型的行为方式和预测能力。变量越多,模型准确预测的能力就越强。参数有点类似于模型里的旋钮或开关,模型开发者可以调整这些参数达到提高模型性能或准确性的目的。

谷歌云Kubernetes和无服务器高级产品总监 Drew Bradstock 在接受记者采访时表示,“从根本上讲,大型语言模型(LLM)不断增大,世界各地公司需要非常大的集群才能高效运行这些模型。他们不仅仅需要大型集群。他们需要可靠、可扩展的集群才能应对运行这些 LLM 训练工作负载实际遇到的挑战。”

谷歌 Kubernetes 引擎(缩写为 GKE)是谷歌提供的托管 Kubernetes 服务,GKE 可减少运行容器环境的工作量。GKE 可根据工作负载需求的变化自动添加和移除硬件资源,例如专用人工智能芯片或图形处理单元。GKE 也可以为用户 更新 Kubernetes 及监督其他维护任务。

GKE 新的65,000节点集群能够管理分布在250,000个张量处理单元上的人工智能模型,张量处理单元是用于加速机器学习和生成式人工智能工作负载的专用人工智能处理器。Bradstock 表示,这比 GKE 在单个集群上以前的基准(5 万个 TPU 芯片)提高了五倍。

新的65,000节点集群大大提高了运行大规模人工智能工作负载的可靠性和效率。Bradstock 认为,规模的增加对大规模人工智能训练和推理都很重要,因为 Kubernetes 允许用户无需担心停机就可以处理基于硬件的故障。这也能加快作业完成时间,因为额外的容量可以在更短的时间内运行更多的模型迭代。

Bradstock 表示,为了实现这一目标,谷歌云正在将GKE从开源的分布式键值存储etcd过渡到更强大的基于谷歌分布式数据库Spanner系统。这将使 GKE 集群能够处理几乎无限的规模并提供更低的延迟。

谷歌还对 GKE 基础设施进行了重大改造,改造后 GKE 的扩展速度显著加快。客户需求因此能够更快地得到满足。此外,GKE 也能够在单个集群中运行五个负载作业,每个作业的规模均与谷歌云之前训练大型语言模型的记录相匹配。

Bradstock表示,客户的关注、该系统中人工智能的普及以及人工智能在整个行业的快速发展等等推动了升级需求。谷歌的客户一直都在利用 GKE 的集群功能训练他们的模型,客户包括Anthropic PBC等领先的前沿人工智能模型开发商。

Anthropic 公司计算主管 James Bradbury 表示,“GKE 对更大型集群的新支持为我们提供了加快人工智能创新步伐所需的规模。”

Bradstock表示,在过去的一年里,GKE 上 TPU 和图形处理单元的使用增加了 900%,大大超过了以前的使用量,而以前使用量就已经很大了。他表示,“这主要是由人工智能的快速增长所推动的。人工智能在未来将占 GKE 使用的主


您需要 登录账户 后才能发表评论

发表评论

快捷回复: 表情:
AddoilApplauseBadlaughBombCoffeeFabulousFacepalmFecesFrownHeyhaInsidiousKeepFightingNoProbPigHeadShockedSinistersmileSlapSocialSweatTolaughWatermelonWittyWowYeahYellowdog
评论列表 (暂无评论,17人围观)

还没有评论,来说两句吧...

目录[+]

取消
微信二维码
微信二维码
支付宝二维码