비공개 GKE 클러스터의 비공개 HTTP 엔드포인트에서 Pub/Sub 이벤트 수신

이 튜토리얼에서는 Eventarc를 사용하여 Pub/Sub 메시지 이벤트를 수신하는 비공개 Google Kubernetes Engine(GKE) 클러스터에서 비공개 HTTP 엔드포인트를 만드는 방법을 보여줍니다. 이 이벤트 대상에 대한 자세한 내용은 VPC 네트워크의 내부 HTTP 엔드포인트로 이벤트 라우팅을 참조하세요.

비공개 GKE 클러스터는 노드에 내부 IP 주소만 있는 가상 프라이빗 클라우드(VPC) 기반 클러스터 유형으로, 이는 기본적으로 노드와 포드가 인터넷으로부터 격리되어 있다는 것을 의미합니다. 클라이언트가 컨트롤 플레인에 액세스할 수 없거나 제한적으로 액세스하거나 제한 없이 액세스할 수 있습니다. 비공개가 아닌 기존 클러스터를 비공개 클러스터로 변환할 수 없습니다. 자세한 내용은 비공개 클러스터 정보를 참조하세요.

터미널 또는 Cloud Shell에서 Google Cloud CLI를 사용하여 다음 명령어를 실행할 수 있습니다.

프록시 전용 서브넷 만들기

이를 금지하는 조직 정책을 만들지 않는 한, 새 프로젝트는 각 리전에 하나의 서브네트워크(서브넷)가 있는 기본 네트워크(자동 모드 VPC 네트워크)로 시작됩니다. 각 VPC 네트워크는 서브넷이라는 하나 이상의 IP 주소 범위로 구성됩니다. 서브넷은 리전별 리소스이며 서브넷과 연결된 IP 주소 범위가 있습니다.

  1. gcloud compute networks subnets create 명령어를 사용하여 기본 네트워크에 프록시 전용 서브넷을 만듭니다.

    gcloud compute networks subnets create proxy-only-subnet \
        --purpose=REGIONAL_MANAGED_PROXY \
        --role=ACTIVE \
        --region=us-central1 \
        --network=default \
        --range=10.10.10.0/24
    

    purpose=REGIONAL_MANAGED_PROXY가 있는 서브넷은 Envoy 기반 부하 분산기용으로 예약되어 있으며 range에서 64개 이상의 IP 주소를 제공해야 합니다.

  2. 프록시 전용 서브넷 범위와 일치하고 TCP 포트 8080에서 트래픽을 허용하는 방화벽 규칙을 만듭니다.

    gcloud compute firewall-rules create allow-proxy-connection \
        --allow tcp:8080 \
        --source-ranges 10.10.10.0/24 \
        --network=default
    

비공개 GKE 클러스터 만들기

gcloud container clusters create-auto 명령어를 사용하여 비공개 노드가 있고 공개 엔드포인트에 대한 클라이언트 액세스 권한이 없는 Autopilot 모드로 비공개 GKE 클러스터를 만듭니다.

다음 예시에서는 private-cluster라는 비공개 GKE 클러스터를 만들고 my-subnet이라는 서브넷도 만듭니다.

gcloud container clusters create-auto private-cluster \
    --create-subnetwork name=my-subnet \
    --enable-master-authorized-networks \
    --enable-private-nodes \
    --enable-private-endpoint \
    --region=us-central1

다음에 유의하세요.

  • --enable-master-authorized-networks는 공개 엔드포인트에 대한 액세스를 사용자가 승인한 IP 주소 범위로 제한합니다.
  • --enable-private-nodes는 클러스터의 노드에 외부 IP 주소가 없음을 나타냅니다.
  • --enable-private-endpoint는 클러스터가 제어 영역 API 엔드포인트의 내부 IP 주소를 사용하여 관리됨을 나타냅니다.

클러스터 생성이 완료되는 데 몇 분이 걸릴 수 있습니다. 클러스터가 생성되면 출력에 클러스터 상태가 RUNNING으로 표시됩니다.

특정 서브넷에 VM 인스턴스 만들기

Compute Engine VM 인스턴스는 Google 인프라에서 호스팅되는 가상 머신입니다. Compute Engine 인스턴스, VM 인스턴스, VM은 같은 의미로 사용되는 동의어입니다. VM 인스턴스에는 GKE 클러스터, App Engine 가변형 환경 인스턴스, Compute Engine VM에서 빌드된 기타 Google Cloud 제품이 포함됩니다.

gcloud compute instances create 명령어를 사용하여 앞에서 만든 서브넷에 Compute Engine VM 인스턴스를 만듭니다. 서비스 계정을 연결하고 VM 액세스 범위를 cloud-platform으로 설정합니다.

gcloud compute instances create my-vm \
    --service-account=PROJECT_NUMBER-compute@developer.gserviceaccount.com \
    --scopes=https://www.googleapis.com/auth/cloud-platform \
    --zone=us-central1-a \
    --subnet=my-subnet

자세한 내용은 VM 인스턴스 만들기 및 시작을 참조하세요.

VM에 이벤트 수신자 배포

사전 빌드된 이미지인 us-docker.pkg.dev/cloudrun/container/hello를 사용하여 포트 80에서 리슨하고 이벤트를 수신 및 로깅하는 서비스를 VM에 배포합니다.

  1. 다음 명령어를 실행하여 VM 인스턴스에 대한 SSH 연결을 설정합니다.

    gcloud compute ssh my-vm --project=PROJECT_ID --zone=us-central1-a
    

    SSH 서버에 대한 연결이 설정되면 VM 인스턴스에서 나머지 명령어를 실행합니다.

  2. 필요한 경우 kubectl 및 필수 플러그인을 설치합니다.

  3. 만든 클러스터에 kubectl이 작동하도록 하려면 VM 인스턴스에서 get-credentials 명령어를 사용하세요.

    gcloud container clusters get-credentials private-cluster \
        --region=us-central1 \
        --internal-ip
    
  4. Kubernetes 명령어 kubectl create deployment를 사용하여 애플리케이션을 클러스터에 배포합니다.

    kubectl create deployment hello-app \
        --image=us-docker.pkg.dev/cloudrun/container/hello
    

    그러면 hello-app이라는 배포가 생성됩니다. 배포의 포드hello 컨테이너 이미지를 실행합니다.

  5. 애플리케이션을 배포한 후에는 Kubernetes 서비스를 만들어 애플리케이션을 트래픽에 노출할 수 있습니다. kubectl expose 명령어를 실행합니다.

    kubectl expose deployment hello-app \
        --type ClusterIP \
        --port 80 \
        --target-port 8080
    

    출력에 service/hello-app exposed가 표시됩니다.

    다음과 유사한 메시지를 무시해도 됩니다.

    E0418 14:15:33.970933    1129 memcache.go:287] couldn't get resource list for metrics.k8s.io/v1beta1: the server is currently unable to handle the request
    

Kubernetes 트래픽 라우팅 구성

게이트웨이 리소스는 Kubernetes에서 트래픽을 라우팅하는 데이터 영역을 나타냅니다. 게이트웨이는 파생된 GatewayClass에 따라 여러 종류의 부하 분산 및 라우팅을 나타낼 수 있습니다. 자세한 내용은 게이트웨이 배포를 참조하세요. HTTPRoute 매니페스트는 경로를 만들고 트래픽을 애플리케이션 백엔드로 전송하기 위해 배포됩니다.

  1. 클러스터에 게이트웨이를 배포합니다.

    kubectl apply -f - <<EOF
    kind: Gateway
    apiVersion: gateway.networking.k8s.io/v1beta1
    metadata:
      name: internal-http
    spec:
      gatewayClassName: gke-l7-rilb
      listeners:
      - name: http
        protocol: HTTP
        port: 80
    EOF
    

    다음에 유의하세요.

    • gatewayClassName: gke-l7-rilb는 이 게이트웨이가 파생된 GatewayClass를 지정합니다. gke-l7-rilb은 내부 애플리케이션 부하 분산기에 해당합니다.
    • port: 80은 게이트웨이가 HTTP 트래픽을 리슨하기 위해 포트 80만 노출하도록 지정합니다.
  2. 게이트웨이가 올바르게 배포되었는지 확인합니다. 모든 리소스를 배포하려면 몇 분 정도 걸릴 수 있습니다.

    kubectl describe gateways.gateway.networking.k8s.io internal-http
    

    출력은 다음과 비슷합니다.

    Name:         internal-http
    Namespace:    default
    ...
    API Version:  gateway.networking.k8s.io/v1beta1
    Kind:         Gateway
    ...
    Spec:
      Gateway Class Name:  gke-l7-rilb
      Listeners:
        Allowed Routes:
          Namespaces:
            From:  Same
        Name:      http
        Port:      80
        Protocol:  HTTP
    Status:
      Addresses:
        Type:   IPAddress
        Value:  10.36.172.5
    ...
    Events:
      Type    Reason  Age                From                   Message
      ----    ------  ----               ----                   -------
      Normal  ADD     80s                sc-gateway-controller  default/internal-http
      Normal  UPDATE  20s (x3 over 80s)  sc-gateway-controller  default/internal-http
      Normal  SYNC    20s                sc-gateway-controller  SYNC on default/internal-http was a success
    
  3. HTTPRoute 매니페스트를 배포하여 포트 80에서 HTTP 트래픽을 hello-app 서비스로 라우팅합니다.

    kubectl apply -f - <<EOF
    kind: HTTPRoute
    apiVersion: gateway.networking.k8s.io/v1beta1
    metadata:
      name: hello-app-route
    spec:
      parentRefs:
      - kind: Gateway
        name: internal-http
      rules:
      - backendRefs:
        - name: hello-app
          port: 80
    EOF
    

네트워크 연결 만들기

네트워크 연결은 제작자 VPC에서 Private Service Connect 인터페이스를 통해 고객 VPC 네트워크에 대한 연결을 시작할 수 있는 리소스입니다.

이벤트를 게시하기 위해 Eventarc는 네트워크 연결을 사용해서 VPC 네트워크에 호스팅되는 내부 HTTP 엔드포인트에 대해 연결을 설정합니다.

네트워크 연결을 참조하는 Private Service Connect 인터페이스에서 연결을 자동으로 허용하는 네트워크 연결을 만들 수 있습니다. HTTP 대상 서비스가 포함된 같은 네트워크와 리전에 네트워크 연결을 만듭니다.

gcloud compute network-attachments create my-network-attachment \
    --region=us-central1 \
    --subnets=my-subnet\
    --connection-preference=ACCEPT_AUTOMATIC

자세한 내용은 네트워크 연결 정보를 참조하세요.

Eventarc 트리거 만들기

새 Pub/Sub 주제를 생성하고 메시지가 Pub/Sub 주제에 게시될 때 VM에 배포된 이벤트 수신자로 이벤트를 라우팅하는 Eventarc 트리거를 만듭니다.

  1. 게이트웨이 주소를 검색합니다.

    GATEWAY_ADDRESS=$(kubectl get gateways.gateway.networking.k8s.io internal-http -o=jsonpath="{.status.addresses[0].value}")
    
  2. 트리거를 만듭니다.

    gcloud eventarc triggers create my-trigger \
        --location=us-central1 \
        --destination-http-endpoint-uri="http://$GATEWAY_ADDRESS:80/" \
        --network-attachment="projects/PROJECT_ID/regions/us-central1/networkAttachments/my-network-attachment" \
        --event-filters="type=google.cloud.pubsub.topic.v1.messagePublished" \
        --service-account=PROJECT_NUMBER-compute@developer.gserviceaccount.com
    

    여기에서 PROJECT_NUMBER를 Google Cloud프로젝트 번호로 바꿉니다. Google Cloud 콘솔의 시작 페이지에서 또는 다음 명령어를 실행하여 프로젝트 번호를 찾을 수 있습니다.

    gcloud projects describe PROJECT_ID --format='value(projectNumber)'
    

트리거 구성에 대한 자세한 내용은 VPC 네트워크의 내부 HTTP 엔드포인트로 이벤트 라우팅을 참조하세요.

Pub/Sub 주제 이벤트를 생성하고 확인합니다.

메시지를 Pub/Sub 주제에 게시하면 이벤트를 생성할 수 있습니다.

  1. Pub/Sub 주제를 환경 변수로 찾아서 설정합니다.

    export MY_TOPIC=$(gcloud eventarc triggers describe my-trigger \
        --location=us-central1 \
        --format='value(transport.pubsub.topic)')
    
  2. Pub/Sub 주제에 메시지를 게시하여 이벤트를 생성합니다.

    gcloud pubsub topics publish $MY_TOPIC --message "Hello World"
    

    Eventarc 트리거는 이벤트를 비공개 GKE 클러스터의 내부 HTTP 엔드포인트로 라우팅합니다.

  3. 애플리케이션 포드 로그를 확인하고 이벤트 전송을 확인합니다.

    POD_NAME=$(kubectl get pod --selector app=hello-app --output=name)
    kubectl logs $POD_NAME
    

    이벤트 본문은 다음과 비슷하게 표시됩니다.

    2024/04/18 20:31:43 Hello from Cloud Run! The container started successfully and is listening for HTTP requests on $PORT
    {"severity":"INFO","eventType":"google.cloud.pubsub.topic.v1.messagePublished","message":"Received event of type google.cloud.pubsub.topic.v1.messagePublished.
    Event data: Hello World","event":{"specversion":"1.0","id":"10935738681111260","source":"//pubsub.googleapis.com/projects/my-project/topics/eventarc-us-central1-my-trigger-224","type":"google.cloud.pubsub.topic.v1.messagePublished","datacontenttype":"application/json","time":"2024-04-18T20:40:03Z","data":
    {"message":{"data":"SGVsbG8gV29ybGQ=","messageId":"10935738681111260","publishTime":"2024-04-18T20:40:03Z"}}}}
    

비공개 GKE 클러스터의 내부 HTTP 엔드포인드에 이벤트 수신자 서비스를 성공적으로 배포하고 Eventarc 트리거를 만들고 Pub/Sub에서 이벤트를 생성했으며, 트리거에서 예상대로 이벤트가 대상 엔드포인트로 라우팅되었음을 확인했습니다.