Weiter zu
AI Infrastructure

AI Infrastructure

Skalierbare, leistungsstarke und kostengünstige Infrastruktur für beliebige KI-Arbeitslasten.

  • KI-Beschleuniger für jeden Anwendungsfall – von Hochleistungstraining bis hin zu kostengünstiger Inferenz

  • Mit GPUs und TPUs in Google Kubernetes Engine oder Google Compute Engine schneller skalieren

  • Bereitstellbare Lösungen für Vertex AI, Google Kubernetes Engine und das Cloud-HPC-Toolkit

  • Um unsere KI-Infrastruktur optimal zu nutzen sollten Sie die KI-Hypercomputer-Architektur bereitstellen.

Vorteile

Leistung und Kosten in großem Umfang optimieren

Bei Google Cloud können Sie unter GPUs, TPUs und CPUs wählen, um verschiedenste Anwendungsfällen zu unterstützen, darunter Hochleistungstraining, kostengünstige Inferenz und Datenverarbeitung im großen Maßstab.

Mit einer verwalteten Infrastruktur schneller Ergebnisse erzielen

Mit der verwalteten Infrastruktur von Vertex AI können Sie schneller und effizienter skalieren. Richten Sie schnell ML-Umgebungen ein, automatisieren Sie die Orchestrierung, verwalten Sie große Cluster und richten Sie Anwendungen mit niedriger Latenz ein.

Entwicklung mit speziell für KI entwickelter Software

Verbessern Sie die Produktivität der KI-Entwicklung, indem Sie mit GKE umfangreiche Arbeitslasten verwalten. Trainieren und stellen Sie die Foundation Models mit Unterstützung für Autoscaling, Arbeitslast-Orchestrierung und automatische Upgrades bereit. 

Wichtige Features

Wichtige Features

Flexible und skalierbare Hardware für jeden Anwendungsfall

Bei KI-Arbeitslasten gibt es keine Universallösung. Deshalb bieten wir zusammen mit unseren Hardwarepartnern aus der Branche, darunter NVIDIA, Intel, AMD, Arm und mehr, unseren Kunden ein breites Spektrum an KI-optimierten Computing-Optionen für TPUs, GPUs und CPUs zum Trainieren und Bereitstellen sehr datenintensiver Modelle. 

Einfach zu bedienen, zu verwalten und zu skalieren

Das Orchestrieren umfangreicher KI-Arbeitslasten mit Cloud TPUs und Cloud GPUs war in der Vergangenheit mit manuellem Aufwand verbunden, um Fehler, Logging, Monitoring und andere grundlegende Vorgänge zu bewältigen. Die Google Kubernetes Engine (GKE), ein sehr gut skalierbarer und vollständig verwalteter Kubernetes-Dienst, vereinfacht die für den Betrieb von TPUs und GPUs erforderliche Arbeit erheblich. Der Einsatz von GKE zur Verwaltung umfangreicher KI-Arbeitslast-Orchestrierung auf Cloud TPU und Cloud GPU verbessert die Produktivität der KI-Entwicklung.

Für Unternehmen, die es bevorzugen, die Infrastruktur einfach durch verwaltete Dienste zu abstrahieren, unterstützt Vertex AI jetzt das Training mit verschiedenen Frameworks und Bibliotheken über Cloud TPU und Cloud GPU.

Exponentielle Skalierung Ihrer KI-Modelle

Unsere KI-optimierte Infrastruktur wurde dafür entwickelt, die globale Skalierung und Leistung bereitzustellen, die von Milliarden Menschen genutzte Google-Produkte wie YouTube, Gmail, Google Maps, Google Play und Android erfordern. Unsere KI-Infrastrukturlösungen basieren alle auf dem Jupiter-Rechenzentrumsnetzwerk von Google Cloud, das eine branchenführende Hochskalierung von grundlegenden Diensten bis hin zu hochintensiven KI-Arbeitslasten unterstützt.

Äußerst flexible und offene Plattform

Seit Jahrzehnten arbeiten wir an wichtigen KI-Projekten wie TensorFlow und JAX mit. Wir haben die PyTorch Foundation mitbegründet und kürzlich ein neues Branchenkonsortium angekündigt: das OpenXLA-Projekt. Darüber hinaus leistet Google zahlreiche CNCF-Open-Source-Beiträge und leistet seit über 20 Jahren OSS-Beiträge wie TFX, MLIR, OpenXLA, KubeFlow und Kubernetes. Google sponsert OSS-Projekte, die für die Data-Science-Community von entscheidender Bedeutung sind, darunter Project Jupyter und NumFOCverteUS.

Außerdem sind unsere KI-Infrastrukturdienste in die gängigsten KI-Frameworks wie TensorFlow, PyTorch und MXNet eingebettet. Kunden können also weiterhin ihr bevorzugtes Framework verwenden und sind nicht auf ein bestimmtes Framework oder eine bestimmte Hardwarearchitektur beschränkt.

Dokumentation

Dokumentation

Google Cloud Basics

AI Infrastructure-Tools in GKE

Optimierte KI-/ML-Arbeitslasten mit den Funktionen der Google Kubernetes Engine (GKE)-Plattformorchestrierung ausführen
Google Cloud Basics

Deep-Learning-VM-Images

Deep Learning VM Images sind für Data-Science- und ML-Aufgaben optimiert. Sie enthalten vorinstallierte zentrale ML-Frameworks und -Tools und können mit GPUs verwendet werden.
Google Cloud Basics

Deep Learning Container

Deep Learning Container sind leistungsoptimierte, konsistente Umgebungen, die Sie beim Erstellen von Prototypen und bei der schnellen Implementierung von Workflows auf CPUs oder GPUs unterstützen.
Tutorial

Wie werden Tensor Processing Units für KI/ML optimiert?

Hier erfahren Sie mehr über die Rechenanforderungen von Machine Learning und darüber, wie TPUs speziell für diese Aufgaben entwickelt wurden.
Google Cloud Basics

TPU-Systemarchitektur

TPUs sind von Google speziell entwickelte ASICs, die dazu dienen, ML-Arbeitslasten zu beschleunigen. Lernen Sie die zugrunde liegende Systemarchitektur von TPUs von Grund auf kennen.

Suchen Sie nach etwas anderem?

Anwendungsfälle

KI-Hypercomputerarchitektur

Anwendungsfall
Maximales Preis-Leistungs-Verhältnis für die Bereitstellung von KI in großem Maßstab

Cloud TPU v5e- und NVIDIA L4-GPUs ermöglichen leistungsstarke und kostengünstige Inferenzen für verschiedene KI-Arbeitslasten, einschließlich der neuesten LLMs und generative AI-Modelle. Beide bieten erhebliche Preisleistungsverbesserungen im Vergleich zu früheren Modellen. Mit der KI-Hypercomputerarchitektur von Google Cloud können Kunden ihre Bereitstellungen auf branchenführende Levels skalieren.

Bis zu 2,7-mal höhere KI-Inferenzleistung/$-Diagramm

Preise

Preise

Die Preise für AI Infrastructure hängen von den ausgewählten Produkten ab. Sie können die KI-Infrastruktur von Google kostenlos mit Colab oder der kostenlosen Stufe von Google Cloud nutzen.

Cloud TPU
Cloud GPU
Informationen zu Preisen für verschiedene TPU-Einzelgeräte und TPU-Pods finden Sie unter TPU-Preise.
Informationen zu den Preisen für die verschiedenen verfügbaren GPU-Typen und Regionen finden Sie in der Preisübersicht für GPUs.

KI-Produkte von Google Cloud entsprechen unseren SLA-Richtlinien. Sie bieten eventuell von anderen Google Cloud-Diensten abweichende Latenz- oder Verfügbarkeitsgarantien.

Gleich loslegen

Profitieren Sie von einem Guthaben über 300 $, um Google Cloud und mehr als 20 „Immer kostenlos“-Produkte kennenzulernen.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud