Accéder à
AI Infrastructure

AI Infrastructure

Infrastructure évolutive, hautes performances et économique pour toutes les charges de travail d'IA.

  • Accélérateurs d'IA pour chaque cas d'utilisation, de l'entraînement hautes performances aux inférences à faible coût

  • Évoluez plus rapidement grâce aux GPU et TPU sur Google Kubernetes Engine ou Google Compute Engine

  • Solutions déployables pour Vertex AI, Google Kubernetes Engine et le kit HPC Cloud

  • Exploitez tout le potentiel de notre infrastructure d'IA en déployant l'architecture AI Hypercomputer

Avantages

Optimisez les performances et les coûts à grande échelle

Google Cloud vous permet de choisir parmi des GPU, des TPU ou des processeurs pour répondre à divers cas d'utilisation, y compris l'entraînement hautes performances, les inférences à faible coût et le traitement de données à grande échelle.

Résultats plus rapides grâce à une infrastructure gérée

Faites évoluer votre infrastructure plus rapidement et plus efficacement grâce à une infrastructure gérée fournie par Vertex AI. Configurez rapidement des environnements de ML, automatisez l'orchestration, gérez des clusters volumineux et configurez des applications à faible latence.

Développez à l'aide de logiciels spécialement conçus pour l'IA

Améliorez la productivité du développement d'IA en exploitant GKE pour gérer des charges de travail à grande échelle. Entraînez et diffusez des modèles de base grâce à la prise en charge de l'autoscaling, de l'orchestration des charges de travail et des mises à niveau automatiques.

Principales fonctionnalités

Principales fonctionnalités

Matériel flexible et évolutif pour tous les cas d'utilisation

Il n'existe pas de solution universelle pour les charges de travail d'IA. C'est pourquoi, en collaboration avec nos partenaires matériels du secteur, comme NVIDIA, Intel, AMD, Arm et bien d'autres, nous proposons à nos clients la plus large gamme d'options de calcul optimisé par l'IA dans les TPU, les GPU et les processeurs pour l'entraînement et la diffusion des modèles qui consomment le plus de données.

Simples à utiliser, gérer et déployer

L'orchestration de charges de travail d'IA à grande échelle avec des Cloud TPU et des GPU Cloud a toujours nécessité des efforts manuels pour gérer les défaillances, la journalisation, la surveillance et d'autres opérations de base. Google Kubernetes Engine (GKE), le service Kubernetes entièrement géré le plus évolutif, simplifie considérablement les tâches requises pour exploiter les TPU et les GPU. L'utilisation de GKE pour gérer l'orchestration des charges de travail d'IA à grande échelle sur Cloud TPU et Cloud GPU améliore la productivité du développement de l'IA.

Pour les organisations qui préfèrent la simplicité d'abstraction de l'infrastructure via des services gérés, Vertex AI prend désormais en charge l'entraînement avec divers frameworks et bibliothèques à l'aide de Cloud TPU et de Cloud GPU.

Faites évoluer vos modèles d'IA de manière exponentielle

Notre infrastructure optimisée par l'IA est conçue pour offrir les performances et l'évolutivité à l'échelle mondiale dont ont besoin des produits Google comme YouTube, Gmail, Google Maps, Google Play et Android pour répondre aux demandes de milliards d'utilisateurs. Nos solutions d'infrastructure d'IA s'appuient toutes sur le réseau de centres de données Jupiter de Google Cloud, qui offre des capacités de pointe à évolutivité horizontale pour les services de base jusqu'aux charges de travail d'IA à haute intensité.

Plate-forme hautement flexible et ouverte

Pendant des dizaines d'années, nous avons contribué à des projets d'IA essentiels tels que TensorFlow et JAX. Nous avons cofondé la fondation PyTorch et récemment annoncé un nouveau consortium dans le secteur : le projet OpenXLA. En outre, Google est le principal contributeur Open Source de la CNCF. Il contribue depuis plus de 20 ans aux OSS comme TFX, MLIR, OpenXLA, KubeFlow et Kubernetes, et a soutenu des projets OSS essentiels à la communauté des data scientists, tels que le projet Jupyter et NumFOCverteUS.

De plus, nos services d'infrastructure d'IA sont intégrés aux frameworks d'IA les plus courants tels que TensorFlow, PyTorch et MXNet, ce qui permet aux clients de continuer à utiliser le framework de leur choix, sans être obligés d'utiliser un framework/une architecture matérielle spécifique.

Documentation

Documentation

Google Cloud Basics

Outils d'infrastructure d'IA sur GKE

Exécutez des charges de travail d'IA/de ML optimisées grâce aux fonctionnalités d'orchestration de plates-formes de Google Kubernetes Engine (GKE).
Google Cloud Basics

Instances Deep Learning VM Image

Les images Deep Learning VM Image sont optimisées pour les tâches de science des données et de machine learning. Elles sont fournies avec des outils et des frameworks de ML clés préinstallés, et fonctionnent avec les GPU.
Google Cloud Basics

Conteneurs de deep learning

Les conteneurs de deep learning sont des environnements cohérents dont les performances sont optimisées pour vous aider à créer des prototypes et à mettre en œuvre rapidement des workflows sur des processeurs ou GPU.
Tutorial

Comment les Tensor Processing Units sont-elles optimisées pour l'IA et le ML ?

Découvrez les exigences de calcul du machine learning et la façon dont les TPU ont été spécialement conçus pour gérer la tâche.
Google Cloud Basics

Architecture du système TPU

Les TPU (Tensor Processing Unit) sont des ASIC spécifiquement développés par Google pour accélérer les charges de travail de machine learning. Découvrez les principes de base de l'architecture système sous-jacente des TPU.

Vous ne trouvez pas ce que vous cherchez ?

Cas d'utilisation

Architecture d'AI Hypercomputer

Cas d'utilisation
Maximiser le rapport prix/performances pour diffuser l'IA à grande échelle

Cloud TPU v5e et les GPU NVIDIA L4 permettent des inférences hautes performances et économiques pour un large éventail de charges de travail d'IA, y compris les derniers LLM et modèles d'IA générative. Ces deux solutions offrent des performances tarifaires nettement supérieures par rapport aux modèles précédents. De plus, l'architecture AI Hypercomputer de Google Cloud permet aux clients d'adapter leurs déploiements à des niveaux de pointe.

Jusqu'à 2,7 fois plus de performances d'inférence en IA par dollar

Tarification

Tarifs

Les tarifs d'AI Infrastructure dépendent du produit sélectionné. Vous pouvez commencer à utiliser gratuitement AI Infrastructure de Google avec Colab ou la version gratuite de Google Cloud.

Cloud TPU
GPU sur Google Cloud
Pour obtenir les tarifs des TPU individuels et des pods TPU, consultez la page Tarifs de Cloud TPU.
Pour comparer les tarifs des GPU selon les différents types de GPU et les différentes régions disponibles, consultez la page Tarifs des GPU.

Les produits d'IA Google Cloud font l'objet d'un contrat de niveau de service spécifique. Ils peuvent présenter des garanties de latence ou de disponibilité différentes de celles d'autres services Google Cloud.

Passez à l'étape suivante

Profitez de 300 $ de crédits gratuits et de plus de 20 produits Always Free pour commencer à créer des applications sur Google Cloud.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
  • Faites des économies grâce à notre approche transparente concernant la tarification
  • Le paiement à l'usage de Google Cloud permet de réaliser des économies automatiques basées sur votre utilisation mensuelle et des tarifs réduits pour les ressources prépayées. Contactez-nous dès aujourd'hui afin d'obtenir un devis.
Google Cloud