바로 이동
AI 인프라

AI 인프라

모든 AI 워크로드를 위한 확장 가능하며 비용 효율적인 고성능 인프라를 제공합니다.

  • 고성능 학습부터 저비용의 추론까지 모든 사용 사례에 적합한 AI 가속기

  • Google Kubernetes Engine 또는 Google Compute Engine에서 GPU와 TPU로 더욱 빠르게 확장

  • Vertex AI, Google Kubernetes Engine, Cloud HPC Toolkit용 배포 가능한 솔루션

  • AI Hypercomputer 아키텍처를 배포하여 AI 인프라를 최대한 활용하세요.

이점

규모에 맞게 성능과 비용 최적화

Google Cloud를 사용하면 GPU, TPU 또는 CPU 중에서 선택하여 고성능 학습, 저비용 추론, 대규모 데이터 처리를 포함한 다양한 사용 사례를 지원할 수 있습니다.

관리형 인프라로 더 빠른 성과를 제공

Vertex AI에서 제공하는 관리형 인프라를 사용하여 더 빠르고 효율적으로 확장하세요. ML 환경을 빠르게 설정하고, 조정을 자동화하며, 대규모 클러스터를 관리하고, 지연 시간이 짧은 애플리케이션을 설정할 수 있습니다.

AI에 특화된 소프트웨어를 사용하여 개발

GKE를 활용하여 대규모 워크로드를 관리하여 AI 개발 생산성을 개선합니다. 자동 확장, 워크로드 조정, 자동 업그레이드를 지원하여 기반 모델을 학습시키고 서빙할 수 있습니다. 

주요 특징

주요 특징

모든 사용 사례에 맞는 유연하고 확장 가능한 하드웨어

AI 워크로드에 대해 천편일률적으로 적용되는 것은 없습니다. NVIDIA, Intel, AMD, Arm 등의 업계 하드웨어 파트너와 함께 Google Cloud는 데이터 집약적인 모델의 학습 및 서빙을 위해 TPU, GPU, CPU 전반에 걸쳐 AI에 최적화된 다양한 컴퓨팅 옵션을 고객에게 제공합니다.

손쉬운 사용, 관리, 확장

Cloud TPU와 Cloud GPU로 대규모 AI 워크로드를 조정하려면 지금까지는 장애, 로깅, 모니터링, 기타 기본 작업을 처리하기 위한 수동 작업이 필요했습니다. 확장성이 가장 높은 완전 관리형 Kubernetes 서비스인 Google Kubernetes Engine(GKE)은 TPU와 GPU를 운영하는 데 필요한 작업을 크게 간소화해 줍니다. GKE를 활용하여 Cloud TPU 및 Cloud GPU에서 대규모 AI 워크로드 조정을 관리하면 AI 개발 생산성이 향상됩니다.

관리형 서비스를 통해 인프라를 간단하게 추상화하려는 조직을 위해 Vertex AI는 이제 Cloud TPU와 Cloud GPU를 사용하여 다양한 프레임워크와 라이브러리를 사용한 학습을 지원합니다.

기하급수적으로 AI 모델 확장

Google은 수십억 사용자가 이용하고 있는 YouTube, Gmail, Google 지도, Google Play, Android 등의 Google 제품에 필요한 글로벌 규모와 성능을 제공하기 위해 AI에 최적화된 인프라를 구축했습니다. Google의 AI 인프라 솔루션은 모두 고강도 AI 워크로드에 이르기까지 기반 서비스를 위한 업계 최고 수준의 수평 확장 기능을 지원하는 Google Cloud의 Jupiter 데이터 센터 네트워크를 기반으로 합니다.

매우 유연한 개방형 플랫폼

Google은 수십 년에 걸쳐 TensorFlow 및 JAX와 같은 중대한 AI 프로젝트에 기여해 왔습니다. PyTorch Foundation을 공동 설립했으며 최근에는 업계의 새로운 컨소시엄인 OpenXLA 프로젝트를 발표했습니다. 또한 Google은 CNCF 오픈소스의 선도적인 참여 기업으로서 20년 이상 TFX, MLIR, OpenXLA, KubeFlow, Kubernetes와 같은 OSS에 기여해 왔으며 Project Jupyter 및 NumFOCverteUS와 같은 데이터 과학 커뮤니티에 중요한 OSS 프로젝트를 후원하고 있습니다.

또한 Google의 AI 인프라 서비스는 TensorFlow, PyTorch, MXNet과 같이 가장 널리 사용되는 AI 프레임워크가 포함되어 있어 고객이 특정 프레임워크 또는 하드웨어 아키텍처에 얽매이지 않고 원하는 프레임워크를 계속 사용할 수 있습니다.

문서

문서

Google Cloud Basics

GKE 기반 AI 인프라 도구

Google Kubernetes Engine(GKE) 플랫폼 조정 기능으로 최적화된 AI/ML 워크로드를 실행하세요.
Google Cloud Basics

Deep Learning VM Image

Deep Learning VM Image는 데이터 과학 및 머신러닝 태스크에 최적화되었습니다. 핵심 ML 프레임워크와 도구가 사전 설치된 상태로 제공되며 GPU가 함께 사용됩니다.
Google Cloud Basics

Deep Learning Containers

Deep Learning Containers는 CPU 또는 GPU에서 워크플로의 프로토타입을 신속하게 제작하고 구현하는 데 성능이 최적화된 일관성 높은 환경입니다.
Tutorial

Tensor Processing Unit은 AI/ML에 어떻게 최적화되나요?

머신러닝의 컴퓨팅 요구사항과 이러한 태스크를 처리하기 위해 TPU가 어떻게 빌드되었는지 알아봅니다.
Google Cloud Basics

TPU 시스템 아키텍처

TPU는 Google에서 맞춤 개발한 ASIC로서 머신러닝 워크로드를 빠르게 처리하는 데 사용됩니다. TPU의 기본 시스템 아키텍처를 처음부터 알아봅니다.

원하는 내용을 찾을 수 없으신가요?

사용 사례

AI Hypercomputer 아키텍처

사용 사례
대규모로 AI를 서빙하기 위한 가격 대비 성능 극대화

Cloud TPU v5e 및 NVIDIA L4 GPU는 최신 LLM 및 생성형 AI 모델을 비롯한 다양한 AI 워크로드에 비용 효율적인 고성능 추론을 지원합니다. 두 가지 모두 이전 모델에 비해 현저히 개선된 가격 대비 성능을 제공하며 Google Cloud의 AI Hypercomputer 아키텍처를 통해 고객은 배포를 업계 최고의 수준으로 확장할 수 있습니다.

최대 2.7배 더 높은 AI 추론 비용 대비 성능 차트

가격 책정

가격 책정

AI 인프라 가격은 선택한 제품에 따라 다르게 책정됩니다. Colab 또는 Google Cloud의 무료 등급을 통해 Google AI 인프라를 무료로 시작할 수 있습니다.

Cloud TPU
Cloud GPU
단일 기기 TPU 유형과 TPU Pod 유형별 TPU 가격 체계에 관한 자세한 내용은 TPU 가격 책정을 참조하세요.
사용 가능한 여러 GPU 유형 및 리전의 GPU 가격 정보는 GPU 가격 책정을 참조하세요.

Cloud AI 제품은 SLA 정책을 준수하며 지연 시간이나 가용성 보장 측면에서 여타 Google Cloud 서비스와는 차이가 있을 수 있습니다.

다음 단계 수행

$300의 무료 크레딧과 20여 개의 항상 무료 제품으로 Google Cloud에서 빌드하세요.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
콘솔
Google Cloud