GKE에 Elasticsearch 벡터 데이터베이스 배포

이 튜토리얼에서는 Google Kubernetes Engine(GKE)에 Elasticsearch 벡터 데이터베이스 클러스터를 배포하는 방법을 보여줍니다.

벡터 데이터베이스는 고차원 벡터의 대규모 컬렉션을 관리하고 검색하도록 특별히 설계된 데이터 스토어입니다. 이러한 벡터는 텍스트, 이미지, 오디오, 동영상와 같은 데이터나 숫자로 인코딩할 수 있는 모든 데이터를 나타냅니다. 완전 일치에 의존하는 관계형 데이터베이스와 달리 벡터 데이터베이스는 대규모 데이터 세트 내에서 유사한 항목을 찾거나 패턴을 식별하는 데 특화되어 있습니다.

Elasticsearch는 검색 및 분석 기능을 결합한 벡터 데이터베이스입니다. 클러스터 관리를 위한 개방형 REST API가 함께 제공되며 구조화된 쿼리, 전체 텍스트 쿼리, 복잡한 쿼리를 지원합니다. Elasticsearch를 사용하면 자동 완성 추천 용어를 통해 구문, 유사성, 프리픽스 검색을 수행할 수 있습니다.

이 튜토리얼은 GKE에서 Elasticsearch 데이터베이스 클러스터를 배포하는 데 관심이 있는 클라우드 플랫폼 관리자 및 설계자, ML 엔지니어, MLOps(DevOps) 전문가를 대상으로 합니다.

이점

Elasticsearch의 이점은 다음과 같습니다.

  • 다양한 프로그래밍 언어를 위한 광범위한 라이브러리와 개방형 API를 통해 다른 서비스와 통합
  • 수평 확장, 샤딩 및 복제 지원으로 확장과 고가용성 간소화
  • 최적의 리소스 사용률을 위한 멀티 노드 클러스터 분산
  • 최신 클라우드 네이티브 환경에 원활한 통합을 위한 컨테이너 및 Kubernetes 지원

목표

이 튜토리얼에서는 다음을 수행하는 방법을 알아봅니다.

  • Elasticsearch용 GKE 인프라를 계획하고 배포합니다.
  • GKE 클러스터에 Elasticsearch를 배포하고 구성합니다.
  • StatefulHA 연산자를 배포하여 Elasticsearch 고가용성을 보장합니다.
  • 노트북을 실행하여 데이터베이스 내에 예시 벡터 임베딩을 생성하고 저장하고 벡터 기반 검색어를 실행합니다.
  • 대시보드에서 측정항목을 수집하고 시각화합니다.

배포 아키텍처

이 튜토리얼에서는 여러 가용성 영역에 분산된 여러 Kubernetes 노드와 함께 Elasticsearch용 고가용성 리전 GKE 클러스터를 배포합니다. 이 설정은 내결함성, 확장성, 지리적 중복성을 보장하는 데 도움이 됩니다. 업타임 및 가용성을 위한 SLA를 제공하면서 순차적 업데이트 및 유지보수를 가능하게 해줍니다. 자세한 내용은 리전 클러스터를 참조하세요.

노드에 연결할 수 없게 되면 해당 노드의 포드가 즉시 다시 예약되지 않습니다. StatefulSet를 사용하는 포드를 사용하면 애플리케이션 포드를 삭제하고 새 노드에 다시 예약하는 데 8분 넘게 걸릴 수 있습니다.

이 문제를 해결하기 위해 StatefulHA 연산자는 다음을 수행합니다.

  • .forceDeleteStrategy: AfterNodeUnreachable 설정을 사용하여 재예약 지연시간을 해결하고 장애 조치 설정을 처리하며 복구 시간을 단축합니다.
  • StatefulSet 애플리케이션이 RePD를 사용 중인지 확인합니다.
  • Elasticsearch와 동일한 네임스페이스에 배포된 커스텀 HighAvailabilityApplication 리소스로 GKE를 확장합니다. 그러면 StatefulHA 연산자가 장애 조치 이벤트를 모니터링하고 응답할 수 있습니다.

다음 다이어그램에서는 GKE 클러스터의 여러 노드 및 영역에서 실행되는 Elasticsearch 클러스터를 보여줍니다.

Elasticsearch 배포 아키텍처

환경 설정

Cloud Shell로 환경을 설정하려면 다음 단계를 따르세요.

  1. 프로젝트, 리전, Kubernetes 클러스터 리소스 프리픽스의 환경 변수를 설정합니다.

    export PROJECT_ID=PROJECT_ID
    export KUBERNETES_CLUSTER_PREFIX=elasticsearch
    export REGION=us-central1
    
    • PROJECT_ID를 Google Cloud프로젝트 ID로 바꿉니다.

    이 튜토리얼에서는 us-central1 리전을 사용하여 배포 리소스를 만듭니다.

  2. Helm의 버전을 확인합니다.

    helm version
    

    3.13 이전인 경우 버전을 업데이트합니다.

    curl https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 | bash
    
  3. GitHub에서 샘플 코드 저장소를 클론합니다.

    git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
    
  4. elasticsearch 디렉터리로 이동하여 배포 리소스 만들기를 시작합니다.

    cd kubernetes-engine-samples/databases/elasticsearch
    

클러스터 인프라 만들기

이 섹션에서는 Terraform 스크립트를 실행하여 가용성이 높은 비공개 리전 GKE 클러스터를 만들어 Elasticsearch 데이터베이스를 배포합니다.

Standard 또는 Autopilot 클러스터를 사용하여 Elasticsearch를 배포할 수 있습니다. 각 유형은 고유한 장점이 있으며 서로 다른 가격 책정 모델을 제공합니다.

Autopilot

다음 다이어그램에서는 프로젝트에 배포된 Autopilot GKE 클러스터를 보여줍니다.

GKE Autopilot 클러스터

클러스터 인프라를 배포하려면 Cloud Shell에서 다음 명령어를 실행합니다.

export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-autopilot init
terraform -chdir=terraform/gke-autopilot apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}

GKE는 런타임 시 다음 변수를 바꿉니다.

  • GOOGLE_OAUTH_ACCESS_TOKENgcloud auth print-access-token 명령어를 사용하여 다양한 Google Cloud API와의 상호작용을 인증하는 액세스 토큰을 검색합니다.
  • PROJECT_ID, REGION, KUBERNETES_CLUSTER_PREFIX환경 설정 섹션에 정의된 환경 변수이며 생성 중인 Autopilot 클러스터의 새 관련 변수에 할당됩니다.

메시지가 표시되면 yes를 입력합니다.

출력은 다음과 비슷합니다.

...
Apply complete! Resources: 9 added, 0 changed, 0 destroyed.

Outputs:

kubectl_connection_command = "gcloud container clusters get-credentials elasticsearch-cluster --region us-central1"

Terraform에서 다음 리소스를 만듭니다.

  • Kubernetes 노드의 커스텀 VPC 네트워크 및 비공개 서브넷
  • 네트워크 주소 변환(NAT)을 통해 인터넷에 액세스하는 Cloud Router
  • us-central1 리전의 비공개 GKE 클러스터
  • 클러스터에 대한 로깅 및 모니터링 권한이 있는 ServiceAccount
  • 클러스터 모니터링 및 알림을 위한 Google Cloud Managed Service for Prometheus 구성

표준

다음 다이어그램에서는 서로 다른 영역 3개에 배포된 Standard 비공개 리전 GKE 클러스터를 보여줍니다.

GKE Standard 클러스터

클러스터 인프라를 배포하려면 Cloud Shell에서 다음 명령어를 실행합니다.

export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-standard init
terraform -chdir=terraform/gke-standard apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}

GKE는 런타임 시 다음 변수를 바꿉니다.

  • GOOGLE_OAUTH_ACCESS_TOKENgcloud auth print-access-token 명령어를 사용하여 다양한 Google Cloud API와의 상호작용을 인증하는 액세스 토큰을 검색합니다.
  • PROJECT_ID, REGION, KUBERNETES_CLUSTER_PREFIX환경 설정 섹션에 정의된 환경 변수이며 만든 Standard 클러스터의 새 관련 변수에 할당됩니다.

메시지가 표시되면 yes를 입력합니다. 이러한 명령어가 완료되고 클러스터에 준비 상태가 표시되는 데 몇 분 정도 걸릴 수 있습니다.

출력은 다음과 비슷합니다.

...
Apply complete! Resources: 10 added, 0 changed, 0 destroyed.

Outputs:

kubectl_connection_command = "gcloud container clusters get-credentials elasticsearch-cluster --region us-central1"

Terraform에서 다음 리소스를 만듭니다.

  • Kubernetes 노드의 커스텀 VPC 네트워크 및 비공개 서브넷
  • 네트워크 주소 변환(NAT)을 통해 인터넷에 액세스하는 Cloud Router
  • 자동 확장이 사용 설정된 us-central1 리전의 비공개 GKE 클러스터(영역당 노드 1~2개)
  • 클러스터에 대한 로깅 및 모니터링 권한이 있는 ServiceAccount
  • 클러스터 모니터링 및 알림을 위한 Google Cloud Managed Service for Prometheus 구성

클러스터에 연결

사용자 인증 정보를 가져오고 새 GKE 클러스터와 통신하도록 kubectl을 구성합니다.

gcloud container clusters get-credentials \
    ${KUBERNETES_CLUSTER_PREFIX}-cluster --location ${REGION}

Elasticsearch 데이터베이스 및 StatefulHA 연산자 배포

이 섹션에서는 ECK 연산자 Helm 차트를 사용하여 GKE 클러스터에 Elasticsearch 데이터베이스(클러스터 모드) 및 StatefulHA 연산자를 배포합니다.

배포는 다음 구성을 사용하여 GKE 클러스터를 만듭니다.

  • Elasticsearch 노드의 복제본 3개
  • 최적의 Elasticsearch 성능을 위해 가상 메모리 설정을 변경하는 DaemonSet DaemonSet는 클러스터의 각 노드에서 포드의 사본이 실행되도록 하는 Kubernetes 컨트롤러입니다.
  • 노드 풀 사용을 최적화하고 여러 영역에서 가용성을 극대화하며 Kubernetes 노드 간 적절한 배포를 보장하기 위한 NodeAffinity 및 PodAntiAffinity의 구성
  • 장애 조치 프로세스를 관리하고 고가용성을 보장하는 스테이트풀(Stateful) HA 오퍼레이터 StatefulSet는 각 포드에 대해 영구적인 고유 ID를 유지하는 Kubernetes 컨트롤러입니다.
  • 인증을 위해 데이터베이스는 사용자 인증 정보, 비밀번호, 인증서를 사용하여 Kubernetes 보안 비밀 생성

Helm 차트를 사용하여 Elasticsearch 데이터베이스를 배포하려면 다음 단계를 수행합니다.

  1. StatefulHA 부가기능 사용 설정

    Autopilot

    GKE는 클러스터를 만들 때 StatefulHA 부가기능을 자동으로 사용 설정합니다.

    표준

    다음 명령어를 실행합니다.

    gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \
        --project=${PROJECT_ID} \
        --location=${REGION} \
        --update-addons=StatefulHA=ENABLED
    

    이 명령어가 완료되고 클러스터에 준비 상태가 표시되는 데 15분이 걸릴 수 있습니다.

  2. Elastic Cloud on Kubernetes(ECK) 커스텀 리소스 정의(CRD)를 만듭니다.

    kubectl apply -f https://download.elastic.co/downloads/eck/2.11.1/crds.yaml
    
  3. ECK 연산자를 배포합니다.

    kubectl apply -f https://download.elastic.co/downloads/eck/2.11.1/operator.yaml
    
  4. 데이터베이스의 네임스페이스 elastic을 만듭니다.

    kubectl create ns elastic
    
  5. Elasticsearch의 장애 조치 규칙을 정의하는 HighAvailabilityApplication(HAA) 리소스를 설치합니다.

    kubectl apply -n elastic -f manifests/01-regional-pd/ha-app.yaml
    

    ha-app.yaml 매니페스트는 HighAvailabilityApplication 리소스를 설명합니다.

    kind: HighAvailabilityApplication
    apiVersion: ha.gke.io/v1
    metadata:
      name: elasticsearch-ha-es-main
      namespace: elastic
    spec:
      resourceSelection:
        resourceKind: StatefulSet
      policy:
        storageSettings:
          requireRegionalStorage: false
        failoverSettings:
          forceDeleteStrategy: AfterNodeUnreachable
          afterNodeUnreachable:
            afterNodeUnreachableSeconds: 20 # 60 seconds total
  6. 매니페스트를 적용하여 리전 영구 SSD 디스크 StorageClass를 만듭니다.

    kubectl apply -n elastic -f manifests/01-regional-pd/regional-pd.yaml
    

    regional-pd.yaml 매니페스트는 영구 SSD 디스크 StorageClass를 설명합니다.

    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    allowVolumeExpansion: true
    metadata:
      name: ha-regional
    parameters:
      replication-type: regional-pd
      type: pd-ssd
      availability-class: regional-hard-failover
    provisioner: pd.csi.storage.gke.io
    reclaimPolicy: Retain
    volumeBindingMode: WaitForFirstConsumer
  7. DaemonSet 리소스를 배포하여 각 노드에서 가상 메모리를 설정합니다.

    kubectl apply -n elastic -f manifests/02-elasticsearch/mmap-count.yaml
    

    mmap-count.yaml 매니페스트는 DaemonSet를 설명합니다.

    apiVersion: apps/v1
    kind: DaemonSet
    metadata:
      name: max-map-count-setter
      labels:
        k8s-app: max-map-count-setter
    spec:
      selector:
        matchLabels:
          name: max-map-count-setter
      template:
        metadata:
          labels:
            name: max-map-count-setter
        spec:
          initContainers:
            - name: max-map-count-setter
              image: docker.io/bash:5.2.21
              resources:
                limits:
                  cpu: 100m
                  memory: 32Mi
              securityContext:
                privileged: true
                runAsUser: 0
              command: ['/usr/local/bin/bash', '-e', '-c', 'echo 262144 > /proc/sys/vm/max_map_count']
          containers:
            - name: sleep
              image: docker.io/bash:5.2.21
              command: ['sleep', 'infinity']
  8. 매니페스트를 적용하여 Elasticsearch 클러스터를 배포합니다.

    kubectl apply -n elastic -f manifests/02-elasticsearch/elasticsearch.yaml
    

    elasticsearch.yaml 매니페스트는 배포를 설명합니다.

    apiVersion: elasticsearch.k8s.elastic.co/v1
    kind: Elasticsearch
    metadata:
      name: elasticsearch-ha
    spec:
      version: 8.11.4
      nodeSets:
      - name: main
        count: 3
        volumeClaimTemplates:
        - metadata:
            name: elasticsearch-data 
          spec:
            accessModes:
            - ReadWriteOnce
            resources:
              requests:
                storage: 10Gi
            storageClassName: ha-regional
        config:
        podTemplate:
          metadata:
            labels:
              app.stateful/component: elasticsearch
          spec:
            initContainers:
            - name: max-map-count-check
              command: ['sh', '-c', "while true; do mmc=$(cat /proc/sys/vm/max_map_count); if [ ${mmc} -eq 262144 ]; then exit 0; fi; sleep 1; done"]
            containers:
            - name: metrics
              image: quay.io/prometheuscommunity/elasticsearch-exporter:v1.7.0
              command:
                - /bin/elasticsearch_exporter
                - --es.ssl-skip-verify
                - --es.uri=https://$(ES_USER):$(ES_PASSWORD)@localhost:9200
              securityContext:
                runAsNonRoot: true
                runAsGroup: 10000
                runAsUser: 10000
              resources:
                requests:
                  memory: "128Mi"
                  cpu: "25m"
                limits:
                  memory: "128Mi"
                  cpu: "100m"
              ports:
              - containerPort: 9114
              env:
              - name: ES_USER
                value: "elastic"
              - name: ES_PASSWORD
                valueFrom:
                  secretKeyRef:
                    name: elasticsearch-ha-es-elastic-user
                    key: elastic
            - name: elasticsearch
              resources:
                limits:
                  memory: 4Gi
                  cpu: 1
            affinity:
              nodeAffinity:
                preferredDuringSchedulingIgnoredDuringExecution:
                  - weight: 1
                    preference:
                      matchExpressions:
                      - key: app.stateful/component
                        operator: In
                        values:
                        - elasticsearch
              podAntiAffinity:
                preferredDuringSchedulingIgnoredDuringExecution:
                - weight: 1
                  podAffinityTerm:
                    labelSelector:
                      matchLabels:
                        app.stateful/component: elasticsearch
                    topologyKey: topology.kubernetes.io/zone

    Elasticsearch 클러스터가 완전히 시작될 때까지 몇 분 정도 기다립니다.

  9. 배포 상태를 확인합니다.

    kubectl get elasticsearch -n elastic --watch
    

    elasticsearch 데이터베이스가 성공적으로 배포되면 출력은 다음과 비슷합니다.

    NAME               HEALTH   NODES   VERSION   PHASE   AGE
    elasticsearch-ha   green    3       8.11.4    Ready   2m30s
    

    HEALTHgreen으로 표시될 때까지 기다립니다. 필요한 경우 Ctrl+C를 눌러 명령어를 종료합니다.

  10. 내부 부하 분산기를 배포하여 GKE 클러스터와 동일한 VPC에서 실행 중인 Elasticsearch 데이터베이스에 액세스합니다.

    kubectl apply -n elastic -f manifests/02-elasticsearch/ilb.yaml
    

    ilb.yaml 매니페스트는 LoadBalancer 서비스를 설명합니다.

    apiVersion: v1
    kind: Service
    metadata:
      annotations:
        #cloud.google.com/neg: '{"ingress": true}'
        networking.gke.io/load-balancer-type: "Internal"
      labels:
        app.kubernetes.io/name: elasticsearch
      name: elastic-ilb
    spec:
      ports:
      - name: https
        port: 9200
        protocol: TCP
        targetPort: 9200
      selector:
        common.k8s.elastic.co/type: elasticsearch
        elasticsearch.k8s.elastic.co/cluster-name: elasticsearch-ha
      type: LoadBalancer
  11. 장애 조치 규칙이 적용되었는지 확인하려면 리소스를 설명하고 Status: Message: Application is protected를 확인합니다.

    kubectl describe highavailabilityapplication elasticsearch-ha-es-main -n elastic
    

    출력은 다음과 비슷합니다.

    Status:
      Conditions:
        Last Transition Time:  2024-02-01T13:27:50Z
        Message:               Application is protected
        Observed Generation:   1
        Reason:                ApplicationProtected
        Status:                True
        Type:                  Protected
    Events:                    <none>
    
  12. GKE가 워크로드를 시작하면 GKE가 Elasticsearch 워크로드를 생성했는지 확인합니다.

    kubectl get pod,svc,statefulset,pdb,secret,daemonset -n elastic
    

    출력은 다음과 비슷합니다.

    NAME                             READY   STATUS    RESTARTS   AGE
    pod/elasticsearch-ha-es-main-0   2/2     Running   0          7m16s
    pod/elasticsearch-ha-es-main-1   2/2     Running   0          7m16s
    pod/elasticsearch-ha-es-main-2   2/2     Running   0          7m16s
    pod/max-map-count-setter-28wt9   1/1     Running   0          7m27s
    pod/max-map-count-setter-cflsw   1/1     Running   0          7m27s
    pod/max-map-count-setter-gzq9k   1/1     Running   0          7m27s
    
    NAME                                        TYPE        CLUSTER-IP    EXTERNAL-IP   PORT(S)    AGE
    service/elasticsearch-ha-es-http            ClusterIP   10.52.8.28   <none>        9200/TCP   7m18s
    service/elasticsearch-ha-es-internal-http   ClusterIP   10.52.3.48   <none>        9200/TCP   7m18s
    service/elasticsearch-ha-es-main            ClusterIP   None         <none>        9200/TCP   7m16s
    service/elasticsearch-ha-es-transport       ClusterIP   None         <none>        9300/TCP   7m18s
    
    NAME                                        READY   AGE
    statefulset.apps/elasticsearch-ha-es-main   3/3     7m16s
    
    NAME                                                     MIN AVAILABLE   MAX UNAVAILABLE   ALLOWED DISRUPTIONS   AGE
    poddisruptionbudget.policy/elasticsearch-ha-es-default   2               N/A               1                     7m16s
    
    NAME                                                 TYPE     DATA   AGE
    secret/elasticsearch-ha-es-elastic-user              Opaque   1      7m18s
    secret/elasticsearch-ha-es-file-settings             Opaque   1      7m16s
    secret/elasticsearch-ha-es-http-ca-internal          Opaque   2      7m17s
    secret/elasticsearch-ha-es-http-certs-internal       Opaque   3      7m17s
    secret/elasticsearch-ha-es-http-certs-public         Opaque   2      7m17s
    secret/elasticsearch-ha-es-internal-users            Opaque   4      7m18s
    secret/elasticsearch-ha-es-main-es-config            Opaque   1      7m16s
    secret/elasticsearch-ha-es-main-es-transport-certs   Opaque   7      7m16s
    secret/elasticsearch-ha-es-remote-ca                 Opaque   1      7m16s
    secret/elasticsearch-ha-es-transport-ca-internal     Opaque   2      7m16s
    secret/elasticsearch-ha-es-transport-certs-public    Opaque   1      7m16s
    secret/elasticsearch-ha-es-xpack-file-realm          Opaque   4      7m18s
    
    NAME                                  DESIRED   CURRENT   READY   UP-TO-DATE   AVAILABLE   NODE SELECTOR   AGE
    daemonset.apps/max-map-count-setter   6         6         6       6            6           <none>          13m
    

다음 GKE 리소스는 Elasticsearch 클러스터에 대해 생성됩니다.

  • 3개의 포드 복제본을 제어하는 Elasticsearch StatefulSet
  • 가상 메모리 설정을 구성하는 DaemonSet
  • Elasticsearch에 연결하는 서비스
  • 수퍼유저 사용자 인증 정보 및 서비스 관련 인증서가 포함된 보안 비밀
  • Elasticsearch 애플리케이션을 적극적으로 모니터링하는 스테이트풀(Stateful) HA 연산자 포드 및 HighlyAvailableApplication 리소스

Vertex AI Colab Enterprise 노트북으로 쿼리 실행

이 섹션에서는 Colab Enterprise 노트북에서 공식 Elasticsearch Python 클라이언트를 사용하여 Elasticsearch 문서에 임베딩을 생성하고 시맨틱 검색어를 실행하는 방법을 설명합니다. Elasticsearch의 문서는 각각 해당 값과 쌍을 이루는 다양한 필드로 구성됩니다.

Vertex AI Colab Enterprise에 대한 자세한 내용은 Colab Enterprise 문서를 참조하세요.

권장사항:

Elasticsearch를 효과적으로 활용하려면 데이터를 이 문서로 구조화한 다음 검색 목적으로 색인을 생성하는 것이 좋습니다.

이 예시에서는 다양한 장르의 도서 목록이 포함된 CSV 파일의 데이터 세트를 사용합니다. Elasticsearch는 검색엔진 역할을 하며 생성된 포드는 Elasticsearch 데이터베이스를 쿼리하는 클라이언트 역할을 합니다.

전용 런타임 템플릿을 사용하여 elasticsearch-vpc VPC(가상 프라이빗 클라우드)에 배포하면 노트북이 GKE 클러스터의 리소스와 통신할 수 있습니다.

런타임 템플릿 만들기

Colab Enterprise 런타임 템플릿을 만들려면 다음 안내를 따르세요.

  1. Google Cloud 콘솔에서 Colab Enterprise 런타임 템플릿 페이지로 이동하여 프로젝트가 선택되어 있는지 확인합니다.

    런타임 템플릿으로 이동

  2. 새 템플릿을 클릭합니다. 새 런타임 템플릿 만들기 페이지가 표시됩니다.

  3. 런타임 기본사항 섹션에서 다음을 수행합니다.

    • 표시 이름 필드에 elastic-connect을 입력합니다.
    • 리전 드롭다운 목록에서 us-central1을 선택합니다. GKE 클러스터와 동일한 리전입니다.
  4. 컴퓨팅 구성 섹션에서 다음을 수행합니다.

    • 머신 유형 드롭다운 목록에서 e2-standard-2를 선택합니다.
    • 디스크 크기 필드에 30을 입력합니다.
  5. 네트워킹 및 보안 섹션에서 다음을 수행합니다.

    • 네트워크 드롭다운 목록에서 GKE 클러스터가 있는 네트워크를 선택합니다.
    • 서브네트워크 드롭다운 목록에서 해당 서브네트워크를 선택합니다.
    • 공개 인터넷 액세스 사용 설정 체크박스를 선택 취소합니다.
  6. 런타임 템플릿 만들기를 완료하려면 만들기를 클릭합니다. 런타임 템플릿이 런타임 템플릿 탭의 목록에 나타납니다.

런타임 만들기

Colab Enterprise 런타임을 만들려면 다음 안내를 따르세요.

  1. 방금 만든 템플릿의 런타임 템플릿 목록에서 작업 열에 있는 를 클릭한 후 런타임 만들기를 클릭합니다. Vertex AI 런타임 만들기 창이 표시됩니다.

  2. 템플릿을 기반으로 런타임을 만들려면 만들기를 클릭합니다.

  3. 런타임 탭이 열리면 상태가 정상으로 전환될 때까지 기다립니다.

노트북 가져오기

Colab Enterprise에서 노트북을 가져오려면 다음 안내를 따르세요.

  1. 내 노트북 탭으로 이동하여 가져오기를 클릭합니다. 노트북 가져오기 창이 표시됩니다.

  2. 가져오기 소스에서 URL을 선택합니다.

  3. 노트북 URL 아래에 다음 링크를 입력합니다.

    https://raw.githubusercontent.com/GoogleCloudPlatform/kubernetes-engine-samples/main/databases/elasticsearch/manifests/03-notebook/vector-database.ipynb
    
  4. 가져오기를 클릭합니다.

런타임에 연결 및 쿼리 실행

런타임에 연결하고 쿼리를 실행하려면 다음 안내를 따르세요.

  1. 노트북에서 연결 버튼 옆에 있는 추가 연결 옵션을 클릭합니다. Vertex AI 런타임에 연결 창이 표시됩니다.

  2. 런타임에 연결을 선택한 후 기존 런타임에 연결을 선택합니다.

  3. 시작한 런타임을 선택하고 연결을 클릭합니다.

  4. 노트북 셀을 실행하려면 각 코드 셀 옆에 있는 셀 실행 버튼을 클릭합니다.

노트북에는 코드 셀과 각 코드 블록을 설명하는 텍스트 모두 포함되어 있습니다. 코드 셀을 실행하면 명령어가 실행되고 출력이 표시됩니다. 셀을 순서대로 실행하거나 필요에 따라 개별 셀을 실행할 수 있습니다.

클러스터의 Prometheus 측정항목 보기

GKE 클러스터는 Prometheus 형식으로 측정항목을 수집할 수 있는 Google Cloud Managed Service for Prometheus로 구성됩니다. 이 서비스는 모니터링 및 알림을 위한 완전 관리형 솔루션을 제공하여 클러스터 및 해당 애플리케이션에서 측정항목을 수집, 저장, 분석할 수 있습니다.

다음 다이어그램은 Prometheus가 클러스터에 대해 측정항목을 수집하는 방법을 보여줍니다.

Prometheus 측정항목 수집

다이어그램의 GKE 비공개 클러스터에는 다음 구성요소가 포함됩니다.

  • 경로 / 및 포트 9114에서 측정항목을 노출하는 Elasticsearch 포드. 이러한 측정항목은 elasticsearch_exporter를 포함하는 metrics라는 사이드카 컨테이너에서 제공됩니다.
  • Elasticsearch 포드의 측정항목을 처리하는 Prometheus 기반 수집기
  • Cloud Monitoring으로 측정항목을 전송하는 PodMonitoring 리소스

클러스터 구성은 Prometheus 형식의 측정항목 내보내기 도구를 사용하는 사이드카 컨테이너를 정의합니다.

apiVersion: elasticsearch.k8s.elastic.co/v1
kind: Elasticsearch
metadata:
  name: elasticsearch-ha
spec:
  ...
  nodeSets:
  - name: main
    ...
    podTemplate:
      spec:
        containers:
        ...
        - name: metrics
          image: quay.io/prometheuscommunity/elasticsearch-exporter:v1.7.0
          command:
          - /bin/elasticsearch_exporter
          - --es.ssl-skip-verify
          - --es.uri=https://$(ES_USER):$(ES_PASSWORD)@localhost:9200
          ...
          env:
          - name: ES_USER
            value: "elastic"
          - name: ES_PASSWORD
            valueFrom:
            secretKeyRef:
              name: elasticsearch-ha-es-elastic-user
              key: elastic

측정항목을 내보내고 보려면 다음 단계를 따르세요.

  1. labelSelector로 측정항목을 스크래핑하도록 PodMonitoring 리소스를 만듭니다.

    kubectl apply -n elastic -f manifests/04-prometheus-metrics/pod-monitoring.yaml
    

    pod-monitoring.yaml 매니페스트는 PodMonitoring 리소스를 설명합니다.

    apiVersion: monitoring.googleapis.com/v1
    kind: PodMonitoring
    metadata:
      name: elasticsearch
    spec:
      selector:
        matchLabels:
          app.stateful/component: elasticsearch
          elasticsearch.k8s.elastic.co/cluster-name: elasticsearch-ha
      endpoints:
      - port: 9114
        interval: 30s
        path: /metrics

    몇 분 후 기본 제공 대시보드 'Elasticsearch Prometheus 개요'가 표시됩니다.

  2. 더 많은 데이터 관련 그래프를 보려면 dashboard.json에 정의된 구성으로 커스텀 Cloud Monitoring 대시보드를 가져옵니다.

    gcloud --project "${PROJECT_ID}" monitoring dashboards create --config-from-file monitoring/dashboard.json
    
  3. 명령어가 성공적으로 실행되면 Cloud Monitoring 대시보드로 이동합니다.

    대시보드 개요로 이동

  4. 대시보드 목록에서 ElasticSearch Overview 대시보드를 엽니다. 측정항목을 수집하고 표시하는 데 1~2분 정도 걸릴 수 있습니다.

    대시보드에는 주요 측정항목 수가 표시됩니다.

    • 색인
    • 문서 및 샤드
    • 대기 중인 작업
    • 상태가 있는 노드 실행

클러스터 구성 백업

Backup for GKE 기능을 사용하면 배포된 워크로드 및 해당 데이터를 포함하여 전체 GKE 클러스터 구성의 정기 백업을 예약할 수 있습니다.

이 튜토리얼에서는 매일 오전 3시에 보안 비밀과 볼륨을 포함한 모든 워크로드의 백업을 수행하도록 GKE 클러스터의 백업 계획을 구성합니다. 효율적인 스토리지 관리를 위해 3일이 지난 백업은 자동으로 삭제됩니다.

  1. 클러스터에 대해 Backup for GKE 기능을 사용 설정합니다.

    gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \
        --project=${PROJECT_ID} \
        --location=${REGION} \
        --update-addons=BackupRestore=ENABLED
    
  2. 클러스터 내의 모든 네임스페이스에 대한 일일 일정을 사용하여 백업 계획을 만듭니다.

    gcloud beta container backup-restore backup-plans create ${KUBERNETES_CLUSTER_PREFIX}-cluster-backup \
        --project=${PROJECT_ID} \
        --location=${REGION} \
        --cluster="projects/${PROJECT_ID}/locations/${REGION}/clusters/${KUBERNETES_CLUSTER_PREFIX}-cluster" \
        --all-namespaces \
        --include-secrets \
        --include-volume-data \
        --cron-schedule="0 3 * * *" \
        --backup-retain-days=3
    

    이 명령어는 런타임에 관련 환경 변수를 사용합니다.

    클러스터 이름의 형식은 다음과 같이 프로젝트 및 리전을 기준으로 합니다.

    projects/PROJECT_ID/locations/REGION/clusters/CLUSTER_NAME
    

    메시지가 표시되면 y.을 입력합니다. 출력은 다음과 비슷합니다.

    Create request issued for: [elasticsearch-cluster-backup]
    Waiting for operation [projects/PROJECT_ID/locations/us-central1/operations/operation-1706528750815-610142ffdc9ac-71be4a05-f61c99fc] to complete...⠹
    

    이 작업을 완료하려면 몇 분 정도 걸릴 수 있습니다. 실행이 완료되면 출력은 다음과 비슷합니다.

    Created backup plan [elasticsearch-cluster-backup].
    
  3. Backup for GKE 콘솔에 나열된 새로 만든 백업 계획 elasticsearch-cluster-backup을 볼 수 있습니다.

    Backup for GKE로 이동

저장된 백업 구성을 복원하려면 백업 복원을 참조하세요.