이 페이지에서는 Deep Learning Containers에 대해 간략하게 설명하고 로컬 Deep Learning Containers 인스턴스와 TensorFlow Enterprise를 시작하는 방법을 설명합니다.
이 예에서는 로컬 머신에서 TensorFlow Enterprise Deep Learning Containers 인스턴스를 만들고 실행합니다. 그런 다음 컨테이너 인스턴스에 기본적으로 포함된 JupyterLab 노트북을 열고 Keras로 신경망을 사용하는 분류 튜토리얼을 실행합니다.
Deep Learning Containers 개요
Deep Learning Containers는 주요 데이터 과학 프레임워크, 라이브러리, 도구가 사전 설치된 Docker 컨테이너 세트입니다. 이러한 컨테이너는 워크플로의 프로토타입을 신속하게 제작하고 구현할 수 있도록 성능이 최적화된 일관성 높은 환경을 제공합니다.
시작하기 전에
다음 단계를 완료하여 Google Cloud CLI와 Docker를 설치한 후 로컬 머신을 설정합니다.
gcloud CLI 및 Docker 설치
다음 단계에 따라 로컬 머신에 gcloud CLI와 Docker를 설치합니다.
로컬 머신에 gcloud CLI를 다운로드하여 설치합니다. gcloud CLI를 사용하여 인스턴스와 상호작용할 수 있습니다.
로컬 머신 설정
다음 단계에 따라 로컬 머신을 설정합니다.
Ubuntu나 Debian과 같은 Linux 기반 운영체제를 사용하는 경우 다음 명령어를 사용하여 사용자 이름을
docker그룹에 추가하면sudo를 사용하지 않고 Docker를 실행할 수 있습니다. USERNAME을 사용자 이름으로 바꿉니다.sudo usermod -a -G docker USERNAME사용자를
docker그룹에 추가하고 나면 시스템을 다시 시작해야 할 수도 있습니다.Docker를 엽니다. Docker가 실행 중인지 확인하려면 다음 Docker 명령어를 실행하세요. 현재 시간과 날짜가 반환됩니다.
docker run busybox dateDocker의 사용자 인증 정보 도우미로
gcloud를 사용합니다.gcloud auth configure-docker선택사항: GPU 지원 컨테이너를 사용하려면 CUDA 10과 호환되는 GPU, 관련 드라이버,
nvidia-docker가 설치되어 있어야 합니다.
Deep Learning Containers 인스턴스 만들기
TensorFlow Enterprise Deep Learning Containers 인스턴스를 만들려면 만들려는 로컬 컨테이너 유형에 따라 다음 단계를 완료하세요.
GPU 지원 컨테이너를 사용할 필요가 없으면 다음 명령어를 사용합니다. /path/to/local/dir을 사용할 로컬 디렉터리의 경로로 바꿉니다.
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
GPU 지원 컨테이너를 사용하려면 다음 명령어를 사용합니다. /path/to/local/dir을 사용할 로컬 디렉터리의 경로로 바꿉니다.
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
이 명령어는 분리 모드에서 컨테이너를 시작하고, 로컬 디렉터리 /path/to/local/dir을 컨테이너의 /home에 마운트하고, 컨테이너의 포트 8080을 로컬 머신의 포트 8080에 매핑합니다.
JupyterLab 노트북을 열고 분류 튜토리얼 실행
컨테이너는 JupyterLab 서버를 시작하도록 사전 구성됩니다. JupyterLab 노트북을 열고 분류 튜토리얼을 실행하려면 다음 단계를 완료하세요.
로컬 브라우저에서 http://localhost:8080을 방문하여 JupyterLab 노트북에 액세스합니다.
왼쪽에서 tutorials를 더블클릭하여 폴더를 열고 tutorials/tf2_course/01_neural_nets_with_keras.ipynb로 이동하여 엽니다.
실행 버튼 을 클릭하여 튜토리얼의 셀을 실행합니다.
Google Cloud에서 Deep Learning Containers 인스턴스 실행
클라우드 환경에서 TensorFlow Enterprise Deep Learning Containers 인스턴스를 실행하려면 Google Cloud에서 컨테이너를 실행하는 옵션에 대해 자세히 알아보세요. 예를 들어 Google Kubernetes Engine 클러스터에서 컨테이너를 실행할 수 있습니다.
다음 단계
- Deep Learning Containers에 대해 자세히 알아보세요.
- Deep Learning Containers에 대해 토론하고 질문할 수 있는 Deep Learning Containers 커뮤니티에 대해 자세히 알아보세요.
- Deep Learning VM과 TensorFlow Enterprise를 사용해 보세요.