Google 与 Hugging Face 达成协议,为开源人工智能提供“超级计算机”力量
根据 The Verge 报道,开发者现在可以在不需要付费 Google Cloud 订阅费的情况下建立、训练和部署人工智能模型。
通过 Hugging Face 平台,外部开发者将获得 “经济实惠” 的使用权,可以访问 Google 的张量处理单元(TPU)和 GPU 超级计算机,其中包括数千台受需求大且受出口限制的 Nvidia H100。Hugging Face 是较为流行的人工智能模型库之一,存储着开源基础模型如 Meta 的 Llama 2 和 Stability AI 的 Stable Diffusion,并提供多个模型训练数据库。
此合作将使 Hugging Face 用户能够在 2024 年上半年开始使用 AI 应用构建平台 Vertex AI 和帮助训练和微调模型的 Kubernetes 引擎。Google 表示,该合作进一步支持 Google Cloud 对开源人工智能生态系统的发展。
根据 The Verge 报道,开发者现在可以在不需要付费 Google Cloud 订阅费的情况下建立、训练和部署人工智能模型。
通过 Hugging Face 平台,外部开发者将获得 “经济实惠” 的使用权,可以访问 Google 的张量处理单元(TPU)和 GPU 超级计算机,其中包括数千台受需求大且受出口限制的 Nvidia H100。Hugging Face 是较为流行的人工智能模型库之一,存储着开源基础模型如 Meta 的 Llama 2 和 Stability AI 的 Stable Diffusion,并提供多个模型训练数据库。
此合作将使 Hugging Face 用户能够在 2024 年上半年开始使用 AI 应用构建平台 Vertex AI 和帮助训练和微调模型的 Kubernetes 引擎。Google 表示,该合作进一步支持 Google Cloud 对开源人工智能生态系统的发展。