이 페이지에서는 Vertex AI에서 자체 머신러닝(ML) 모델을 학습시키고 사용하기 위한 워크플로를 간략하게 설명합니다. Vertex AI는 완전 자동화부터 완전 커스텀에 이르기까지 니즈가 충족되도록 설계된 다양한 학습 방법을 제공합니다.
- AutoML: Google의 자동화된 ML 기능을 활용하여 최소한의 기술적 노력으로 고품질 모델을 빌드합니다.
- Vertex AI 서버리스 학습: 인프라에 대한 걱정 없이 완전 관리형 주문형 환경에서 커스텀 학습 코드를 실행합니다.
- Vertex AI 학습 클러스터: 독점적 사용으로 예약된 전용 액셀러레이터 클러스터에서 대규모 고성능 학습 작업을 실행합니다.
- Vertex AI 기반 Ray: 관리형 서비스에서 오픈소스 Ray 프레임워크를 사용하여 Python 애플리케이션과 ML 워크로드를 확장합니다.
사용할 방법을 결정하는 데 도움이 필요하면 학습 방법 선택을 참조하세요.
AutoML
Vertex AI에서 AutoML을 사용하면 제공한 학습 데이터를 기반으로 코드가 없는 ML 모델을 빌드할 수 있습니다. AutoML은 다양한 데이터 유형과 예측 작업을 위한 데이터 준비, 모델 선택, 하이퍼파라미터 조정, 배포와 같은 작업을 자동화할 수 있으므로 다양한 사용자가 ML에 더 쉽게 액세스할 수 있습니다.
AutoML을 사용하여 빌드할 수 있는 모델 유형
빌드할 수 있는 모델 유형은 보유한 데이터 유형에 따라 달라집니다. Vertex AI는 다음과 같은 데이터 유형및 모델 목표에 대한 AutoML 솔루션을 제공합니다.
| 데이터 유형 | 지원되는 목표 |
|---|---|
| 이미지 데이터 | 분류, 객체 감지 |
| 테이블 형식 데이터 | 분류/회귀, 예측 |
AutoML에 대해 자세히 알아보려면 AutoML 학습 개요를 참조하세요.
Vertex AI에서 커스텀 학습 코드 실행
AutoML에서 니즈를 해결할 수 없으면 자체 학습 코드를 제공하고 Vertex AI의 관리형 인프라에서 실행하면 됩니다. 이렇게 하면 모델 아키텍처와 학습 로직을 완전히 제어하고 유연하게 사용할 수 있으므로 원하는 ML 프레임워크를 사용할 수 있습니다.
Vertex AI는 커스텀 학습 코드를 실행하기 위한 두 가지 기본 모드(서버리스 주문형 환경 또는 전용 예약 클러스터)를 제공합니다.
Vertex AI 서버리스 학습
서버리스 학습은 인프라를 프로비저닝하거나 관리하지 않고도 커스텀 학습 애플리케이션을 실행할 수 있는 완전 관리형 서비스입니다.
코드를 컨테이너에 패키징하고 머신 사양(CPU 및 GPU 포함)을 정의하며 CustomJob으로 제출합니다.
나머지는 Vertex AI에서 처리됩니다.
- 작업 기간 동안 컴퓨팅 리소스 프로비저닝
- 학습 코드 실행
- 작업 완료 후에 리소스 삭제
이 종량제 주문형 모델은 실험, 빠른 프로토타입 제작, 보장된 즉각적인 용량이 필요하지 않은 프로덕션 작업에 적합합니다.
자세한 내용은 서버리스 학습 커스텀 작업 만들기를 참조하세요.
Vertex AI 학습 클러스터
대규모, 고성능, 미션 크리티컬 학습의 경우 전용 액셀러레이터 클러스터를 예약할 수 있습니다. 이렇게 하면 용량이 보장되고 큐가 제거되어 작업이 즉시 시작됩니다.
이러한 리소스를 독점적으로 사용하는 동안에도 Vertex AI는 하드웨어 유지보수 및 OS 패치를 포함한 클러스터 관리 운영 오버헤드를 처리합니다. 이 '관리형 서버' 방식을 사용하면 관리 복잡성 없이 전용 클러스터 성능을 활용할 수 있습니다.
Vertex AI 기반 Ray
Vertex AI 기반 Ray는 Vertex AI 플랫폼 내에서 직접 AI 및 Python 애플리케이션을 확장하기 위해 오픈소스 Ray 프레임워크를 사용할 수 있는 서비스입니다. Ray는 ML 워크플로에 대해 분산 컴퓨팅과 병렬 처리를 위한 인프라를 제공하도록 설계되었습니다.
Vertex AI 기반 Ray는 Ray 프레임워크를 사용하여 분산 애플리케이션을 실행하기 위한 관리형 환경을 제공하여 확장성과 Google Cloud 서비스와의 통합을 지원합니다.
Vertex AI 기반 Ray에 대해 자세히 알아보려면 Vertex AI 기반 Ray 개요를 참조하세요.