Implementa una base de datos vectorial de Qdrant en GKE.

En esta guía, se muestra cómo implementar un clúster de base de datos vectorial Qdrant en Google Kubernetes Engine (GKE).

Las bases de datos vectoriales son almacenes de datos diseñados específicamente para administrar y buscar en grandes colecciones de vectores de alta dimensión. Estos vectores representan datos como texto, imágenes, audio, video o cualquier dato que se pueda codificar de forma numérica. A diferencia de las bases de datos tradicionales, que se basan en coincidencias exactas, las bases de datos vectoriales se especializan en encontrar elementos similares o identificar patrones dentro de conjuntos de datos masivos. Estas características hacen que Qdrant sea una opción adecuada para una variedad de aplicaciones, incluidas la red neuronal o la coincidencia basada en la semántica, la búsqueda por facetas y más. Qdrant funciona no solo como una base de datos vectorial sino también como un motor de búsqueda de similitud vectorial.

Este instructivo está dirigido a administradores y arquitectos de plataformas de nube, ingenieros de AA y profesionales de MLOps (DevOps) interesados en implementar clústeres de bases de datos de Qdrant en GKE.

Ventajas

Qdrant ofrece los siguientes beneficios:

  • Amplia gama de bibliotecas para varios lenguajes de programación y API abierta para integrar en otros servicios.
  • Escalamiento horizontal y compatibilidad con la fragmentación y la replicación que simplifica el escalamiento y la alta disponibilidad.
  • Compatibilidad con contenedores y Kubernetes que permite la implementación y la administración en entornos modernos nativos de la nube.
  • Cargas útiles flexibles con filtrado avanzado para adaptar los criterios de búsqueda con precisión.
  • Diferentes opciones de cuantización y otras optimizaciones para reducir los costos de infraestructura y mejorar el rendimiento.

Objetivos

En este instructivo, aprenderás a realizar lo siguiente:

  • Planificar y, además, implementar la infraestructura de GKE para Qdrant
  • Implementar el operador StatefulHA para garantizar la alta disponibilidad de Qdrant.
  • Implementar y configurar el clúster de Qdrant.
  • Subir un conjunto de datos de demostración y ejecuta una búsqueda simple.
  • Recopilar métricas y ejecutar un panel.

Arquitectura de implementación

Esta arquitectura configura un clúster de GKE escalable y tolerante a errores para Qdrant en varias zonas de disponibilidad, lo que garantiza el tiempo de actividad y la disponibilidad con actualizaciones progresivas y también interrupciones mínimas. Incluye el uso del operador StatefulHA para una administración eficiente de la conmutación por error. Para obtener más información, consulta Clústeres regionales.

Diagrama de arquitectura

En el siguiente diagrama, se muestra un clúster de Qdrant que se ejecuta en varios nodos y zonas en un clúster de GKE:

Arquitectura de implementación de Qdrant

En esta arquitectura, el StatefulSet de Qdrant se implementa en tres nodos en tres zonas diferentes.

  • Puedes controlar cómo GKE distribuye los Pods entre los nodos gracias a la configuración de las reglas de afinidad de Pod necesarias y las restricciones de distribución de topología en el archivo de valores del gráfico de Helm.
  • Si una zona falla, GKE reprograma los Pods en nodos nuevos según la configuración recomendada.

Para la persistencia de datos, la arquitectura de este instructivo tiene las siguientes características:

  • Usa discos SSD regionales (StorageClass personalizadosregional-pd) para conservar datos. Recomendamos los discos SSD regionales para las bases de datos debido a su baja latencia y sus altas IOPS.
  • Todos los datos del disco se replican entre las zonas principal y secundaria de la región, lo que aumenta la tolerancia a posibles fallas de zonas.

Configura tu entorno

Para configurar tu entorno con Cloud Shell, sigue estos pasos:

  1. Configura las variables de entorno del proyecto, la región y el prefijo de recursos del clúster de Kubernetes:

    Para los fines de este instructivo, usa la región us-central1 para crear tus recursos de implementación.

    export PROJECT_ID=PROJECT_ID
    export KUBERNETES_CLUSTER_PREFIX=qdrant
    export REGION=us-central1
    
    • Reemplaza PROJECT_ID por el ID del proyecto Google Cloud.
  2. Verifica la versión de Helm:

    helm version
    

    Actualiza la versión si es anterior a la 3.13:

    curl https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 | bash
    
  3. Clona el repositorio de código de muestra de GitHub:

    git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
    
  4. Navega al directorio qdrant para comenzar a crear recursos de implementación:

    cd kubernetes-engine-samples/databases/qdrant
    

Crea la infraestructura del clúster

En esta sección, se incluye la ejecución de una secuencia de comandos de Terraform para crear un clúster de GKE regional privado y con alta disponibilidad con el objetivo de implementar tu base de datos de Qdrant.

Puedes elegir implementar Qdrant usando un clúster de Standard o Autopilot. Cada uno tiene sus propias ventajas y diferentes modelos de precios.

Autopilot

En el siguiente diagrama, se muestra un clúster de GKE regional de Autopilot implementado en tres zonas diferentes.

Clúster de GKE Autopilot

Para implementar la infraestructura del clúster, ejecuta los siguientes comandos en Cloud Shell:

export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-autopilot init
terraform -chdir=terraform/gke-autopilot apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}

Las siguientes variables se reemplazan en el tiempo de ejecución:

  • GOOGLE_OAUTH_ACCESS_TOKEN: Se reemplaza por un token de acceso recuperado por el comando gcloud auth print-access-token para autenticar interacciones con varias APIs de Google Cloud.
  • PROJECT_ID, REGION y KUBERNETES_CLUSTER_PREFIX son las variables de entorno definidas en la sección Configura tu entorno y asignadas a las nuevas variables relevantes para el clúster de Autopilot que creas.

Cuando se te solicite, escribe yes.

El resultado es similar al siguiente:

...
Apply complete! Resources: 9 added, 0 changed, 0 destroyed.

Outputs:

kubectl_connection_command = "gcloud container clusters get-credentials qdrant-cluster --region us-central1"

Terraform crea los siguientes recursos:

  • Una red de VPC personalizada y una subred privada para los nodos de Kubernetes
  • Un Cloud Router para acceder a Internet a través de la traducción de direcciones de red (NAT).
  • Un clúster de GKE privado en la región us-central1.
  • Un ServiceAccount con permisos de registro y supervisión para el clúster.
  • Configuración de Google Cloud Managed Service para Prometheus para la supervisión y las alertas de clústeres.

Estándar

En el siguiente diagrama, se muestra un clúster de GKE regional privado de Standard implementado en tres zonas diferentes.

Clúster de GKE Standard

Para implementar la infraestructura del clúster, ejecuta los siguientes comandos en Cloud Shell:

export GOOGLE_OAUTH_ACCESS_TOKEN=$(gcloud auth print-access-token)
terraform -chdir=terraform/gke-standard init
terraform -chdir=terraform/gke-standard apply \
-var project_id=${PROJECT_ID} \
-var region=${REGION} \
-var cluster_prefix=${KUBERNETES_CLUSTER_PREFIX}

Las siguientes variables se reemplazan en el tiempo de ejecución:

  • GOOGLE_OAUTH_ACCESS_TOKEN se reemplaza por un token de acceso recuperado por el comando gcloud auth print-access-token para autenticar las interacciones con varias APIs de Google Cloud.
  • PROJECT_ID, REGION y KUBERNETES_CLUSTER_PREFIX son las variables de entorno definidas en la sección Configura tu entorno y asignadas a las nuevas variables relevantes para el clúster de Standard que creas.

Cuando se te solicite, escribe yes. Es posible que estos comandos tarden varios minutos en completarse y que el clúster muestre un estado de preparación.

El resultado es similar al siguiente:

...
Apply complete! Resources: 10 added, 0 changed, 0 destroyed.

Outputs:

kubectl_connection_command = "gcloud container clusters get-credentials qdrant-cluster --region us-central1"

Terraform crea los siguientes recursos:

  • Una red de VPC personalizada y una subred privada para los nodos de Kubernetes
  • Un Cloud Router para acceder a Internet a través de la traducción de direcciones de red (NAT).
  • Un clúster de GKE privado en la región us-central1 con el ajuste de escala automático habilitado (de uno a dos nodos por zona).
  • Un ServiceAccount con permisos de registro y supervisión para el clúster.
  • Configuración de Google Cloud Managed Service para Prometheus para la supervisión y las alertas de clústeres.

Conéctate al clúster

Configura kubectl para recuperar credenciales y comunicarte con tu nuevo clúster de GKE:

gcloud container clusters get-credentials \
    ${KUBERNETES_CLUSTER_PREFIX}-cluster --location ${REGION}

Implementa la base de datos de Qdrant en tu clúster

En este instructivo, implementarás la base de datos Qdrant (en modo distribuido) y el operador de HA con estado en el clúster de GKE usando el gráfico de Helm.

La implementación crea un clúster de GKE con la siguiente configuración:

  • Tres réplicas de los nodos del Qdrant.
  • Las tolerancias, las afinidades de nodos y las restricciones de distribución de topología se configuran para garantizar una distribución adecuada en los nodos de Kubernetes. Esto aprovecha los grupos de nodos y las diferentes zonas de disponibilidad.
  • Se aprovisiona un volumen de RePD con el tipo de disco SSD para el almacenamiento de datos.
  • Se usa un operador de alta disponibilidad con estado para administrar los procesos de conmutación por error y garantizar una alta disponibilidad. Un StatefulSet es un controlador de Kubernetes que mantiene una identidad única y persistente para cada uno de sus Pods.
  • Para la autenticación, la base de datos crea un secreto de Kubernetes que contiene la clave de API.

Para usar el gráfico de Helm y así implementar la base de datos de Qdrant, sigue estos pasos:

  1. Habilita el complemento StatefulHA:

    Autopilot

    GKE habilita automáticamente el complemento StatefulHA durante la creación del clúster.

    Estándar

    Ejecuta el siguiente comando:

    gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \
        --project=${PROJECT_ID} \
        --location=${REGION} \
        --update-addons=StatefulHA=ENABLED
    

    Es posible que este comando tarde 15 minutos en completarse y que el clúster muestre un estado de preparación.

  2. Agrega el repositorio de gráficos de Helm de la base de datos de Qdrant para poder implementarlo en tu clúster de GKE:

    helm repo add qdrant https://qdrant.github.io/qdrant-helm
    
  3. Crea el espacio de nombres qdrant para la base de datos:

    kubectl create ns qdrant
    
  4. Aplica el manifiesto para crear un disco SSD persistente regional StorageClass:

    kubectl apply -n qdrant -f manifests/01-regional-pd/regional-pd.yaml
    

    En el manifiesto de regional-pd.yaml, se describe el disco SSD persistente StorageClass:

    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    allowVolumeExpansion: true
    metadata:
      name: ha-regional
    parameters:
      replication-type: regional-pd
      type: pd-ssd
      availability-class: regional-hard-failover
    provisioner: pd.csi.storage.gke.io
    reclaimPolicy: Retain
    volumeBindingMode: WaitForFirstConsumer
  5. Implementa un ConfigMap de Kubernetes con una configuración de archivo adicional metrics y un clúster de Qdrant usando Helm:

    kubectl apply -n qdrant -f manifests/03-prometheus-metrics/metrics-cm.yaml
    helm install qdrant-database qdrant/qdrant -n qdrant \
    -f manifests/02-values-file/values.yaml
    

    En el manifiesto de metrics-cm.yaml, se describe el archivo adicional ConfigMap de metrics:

    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: nginx-conf
    data:
      default.conf.template: |
        server {
          listen 80;
          location / {
            proxy_pass http://localhost:6333/metrics;
            proxy_http_version 1.1;
            proxy_set_header Host $http_host;
            proxy_set_header api-key ${QDRANT_APIKEY};
            proxy_set_header X-Forwarded-For $remote_addr;
          }
        }

    En el manifiesto values.yaml, se describe la configuración del clúster de Qdrant:

    replicaCount: 3
    
    config:
      service:
        enable_tls: false
      cluster:
        enabled: true
      storage:
        optimizers:
          deleted_threshold: 0.5
          vacuum_min_vector_number: 1500
          default_segment_number: 2
          max_segment_size_kb: null
          memmap_threshold_kb: null
          indexing_threshold_kb: 25000
          flush_interval_sec: 5
          max_optimization_threads: 1
    
    livenessProbe:
      enabled: true
      initialDelaySeconds: 60
    
    resources:
      limits:
        cpu: "2"
        memory: 4Gi
      requests:
        cpu: "1"
        memory: 4Gi
    
    tolerations:
      - key: "app.stateful/component"
        operator: "Equal"
        value: "qdrant"
        effect: NoSchedule
    
    affinity:
      nodeAffinity:
        preferredDuringSchedulingIgnoredDuringExecution:
        - weight: 1
          preference:
            matchExpressions:
            - key: "app.stateful/component"
              operator: In
              values:
              - "qdrant"
    
    topologySpreadConstraints:
      - maxSkew: 1
        topologyKey: "topology.kubernetes.io/zone"
        whenUnsatisfiable: ScheduleAnyway
        labelSelector:
          matchLabels:
            app.kubernetes.io/name: qdrant
            app.kubernetes.io/instance: qdrant
    
    podDisruptionBudget:
      enabled: true
      maxUnavailable: 1
    
    persistence:
      accessModes: ["ReadWriteOnce"]
      size: 10Gi
      storageClassName: ha-regional
    
    apiKey: true
    
    sidecarContainers:
      - name: metrics
        image: nginx:1.29
        resources:
          requests:
            memory: "128Mi"
            cpu: "250m"
          limits:
            memory: "128Mi"
            cpu: "500m"
        ports:
        - containerPort: 80
        env:
        - name: QDRANT_APIKEY 
          valueFrom:
            secretKeyRef:
              name: qdrant-database-apikey          
              key: api-key
        volumeMounts:
            - name: nginx-conf
              mountPath: /etc/nginx/templates/default.conf.template
              subPath: default.conf.template
              readOnly: true
    additionalVolumes:
      - name: nginx-conf
        configMap:
          name: nginx-conf
          items:
            - key: default.conf.template
              path: default.conf.template 

    Esta configuración habilita el modo de clúster, lo que te permite establecer un clúster de Qdrant con alta disponibilidad y distribuido.

  6. Agrega una etiqueta al conjunto con estado de Qdrant:

    kubectl label statefulset qdrant-database examples.ai.gke.io/source=qdrant-guide -n qdrant
    
  7. Implementa un balanceador de cargas interno para acceder a tu base de datos de Qdrant que se ejecuta en la misma VPC que tu clúster de GKE:

    kubectl apply -n qdrant -f manifests/02-values-file/ilb.yaml
    

    En el manifiesto de ilb.yaml, se describe el Service LoadBalancer:

    apiVersion: v1
    kind: Service
    metadata:
      annotations:
        #cloud.google.com/neg: '{"ingress": true}'
        networking.gke.io/load-balancer-type: "Internal"
      labels:
        app.kubernetes.io/name: qdrant
      name: qdrant-ilb
    spec:
      ports:
      - name: http
        port: 6333
        protocol: TCP
        targetPort: 6333
      - name: grpc
        port: 6334
        protocol: TCP
        targetPort: 6334
      selector:
        app: qdrant
        app.kubernetes.io/instance: qdrant-database
      type: LoadBalancer
  8. Verifica el estado de la implementación:

    helm ls -n qdrant
    

    Si la base de datos qdrant se implementó de forma correcta, el resultado es similar al siguiente:

    NAME    NAMESPACE       REVISION        UPDATED                                 STATUS          CHART           APP VERSION
    qdrant-database  qdrant          1               2024-02-06 20:21:15.737307567 +0000 UTC deployed        qdrant-0.7.6    v1.7.4
    
  9. Espera a que GKE inicie las cargas de trabajo requeridas:

    kubectl wait pods -l app.kubernetes.io/instance=qdrant-database --for condition=Ready --timeout=300s -n qdrant
    

    Este comando puede tardar unos minutos en completarse correctamente.

  10. Una vez que GKE inicie las cargas de trabajo, verifica que GKE haya creado las cargas de trabajo de Qdrant:

    kubectl get pod,svc,statefulset,pdb,secret -n qdrant
    
  11. Inicia el recurso HighAvailabilityApplication (HAA) para Qdrant:

    kubectl apply -n qdrant -f manifests/01-regional-pd/ha-app.yaml
    

    El manifiesto ha-app.yaml describe el recurso HighAvailabilityApplication:

    kind: HighAvailabilityApplication
    apiVersion: ha.gke.io/v1
    metadata:
      name: qdrant-database
      namespace: qdrant
    spec:
      resourceSelection:
        resourceKind: StatefulSet
      policy:
        storageSettings:
          requireRegionalStorage: true
        failoverSettings:
          forceDeleteStrategy: AfterNodeUnreachable
          afterNodeUnreachable:
            afterNodeUnreachableSeconds: 20 # 60 seconds total

    Los siguientes recursos de GKE se crean para el clúster de Qdrant:

    • El StatefulSet del Qdrant que controla tres réplicas de Pod.
    • A PodDisruptionBudget, lo que garantiza un máximo de una réplica no disponible.
    • El servicio qdrant-database, que expone el puerto de Qdrant para las conexiones entrantes y la replicación entre nodos.
    • El servicio qdrant-database-headless, que proporciona la lista de pods de Qdrant en ejecución.
    • El secreto qdrant-database-apikey, que facilita una conexión segura de la base de datos.
    • Pod de operador de HA con estado y recurso HighlyAvailableApplication, que supervisa de forma activa la aplicación de Qdrant. El recurso HighlyAvailableApplication define reglas de conmutación por error que se aplicarán en Qdrant.
  12. Para verificar si se aplican las reglas de conmutación por error, describe el recurso y confirma Status: Message: Application is protected.

    kubectl describe highavailabilityapplication qdrant-database -n qdrant
    

    El resultado es similar a este:

    Status:
    Conditions:
        Last Transition Time:  2023-11-30T09:54:52Z
        Message:               Application is protected
        Observed Generation:   1
        Reason:                ApplicationProtected
        Status:                True
        Type:                  Protected
    

Ejecuta consultas con el notebook de Colab Enterprise de Vertex AI

Qdrant organiza vectores y cargas útiles en colecciones. La incorporación vectorial es una técnica que representa palabras o entidades como vectores numéricos mientras mantienen sus relaciones semánticas. Esto es importante para las búsquedas de similitud, ya que permite encontrar similitudes basadas en el significado en lugar de en las coincidencias exactas, lo que hace que las tareas como los sistemas de búsqueda y recomendación sean más eficaces y matizadas.

En esta sección, se muestra cómo subir vectores a una colección nueva de Qdrant y ejecutar búsquedas.

En este ejemplo, se usa un conjunto de datos de un archivo CSV que contiene una lista de libros de diferentes géneros. Creas un notebook de Colab Enterprise para realizar una búsqueda en la base de datos de Qdrant.

Para obtener más información sobre Vertex AI Colab Enterprise, consulta la documentación de Colab Enterprise.

Crea una plantilla de entorno de ejecución

Para crear una plantilla de entorno de ejecución de Colab Enterprise, sigue estos pasos:

  1. En la consola de Google Cloud , ve a la página Plantillas de entorno de ejecución de Colab Enterprise y asegúrate de que tu proyecto esté seleccionado:

    Ir a Plantillas de entorno de ejecución

  2. Haz clic en New Template. Aparecerá la página Crear nueva plantilla de entorno de ejecución.

  3. En la sección Conceptos básicos del entorno de ejecución, haz lo siguiente:

    • En el campo Nombre visible, escribe qdrant-connect
    • En la lista desplegable Región, selecciona us-central1. Es la misma región que tu clúster de GKE.
  4. En la sección Configurar procesamiento, haz lo siguiente:

    • En la lista desplegable Tipo de máquina, selecciona e2-standard-2.
    • En el campo Tamaño del disco, ingresa 30.
  5. En la sección Herramientas de redes y seguridad, haz lo siguiente:

    • En la lista desplegable Red, selecciona la red en la que reside tu clúster de GKE.
    • En la lista desplegable Subred, selecciona una subred correspondiente.
    • Desmarca la casilla de verificación Habilitar el acceso a Internet pública.
  6. Para terminar de crear la plantilla de entorno de ejecución, haz clic en Crear. Tu plantilla de entorno de ejecución aparece en la lista en la pestaña Plantillas de entorno de ejecución.

Crea un entorno de ejecución

Para crear un entorno de ejecución de Colab Enterprise, haz lo siguiente:

  1. En la lista de plantillas de ejecución de la plantilla que acabas de crear, en la columna Acciones, haz clic en y, luego, en Crear tiempo de ejecución. Aparecerá el panel Crear entorno de ejecución de Vertex AI.

  2. Para crear un entorno de ejecución basado en tu plantilla, haz clic en Crear.

  3. En la pestaña Tiempos de ejecución que se abre, espera a que el estado cambie a Correcto.

Importa el notebook

Para importar el notebook en Colab Enterprise, haz lo siguiente:

  1. Ve a la pestaña Mis notebooks y haz clic en Importar. Aparecerá el panel Import notebooks.

  2. En Fuente de importación, selecciona URL.

  3. En URLs de notebooks, ingresa el siguiente vínculo:

    https://raw.githubusercontent.com/GoogleCloudPlatform/kubernetes-engine-samples/refs/heads/main/databases/qdrant/manifests/04-notebook/vector-database.ipynb
    
  4. Haz clic en Importar.

Conéctate al entorno de ejecución y ejecuta consultas

Para conectarte al entorno de ejecución y ejecutar consultas, sigue estos pasos:

  1. En el notebook, junto al botón Conectar, haz clic en Opciones de conexión adicionales. Aparecerá el panel Conéctate al entorno de ejecución de Vertex AI.

  2. Selecciona Conectar a un entorno de ejecución y, luego, Conectar a un entorno de ejecución existente.

  3. Selecciona el entorno de ejecución que iniciaste y haz clic en Conectar.

  4. Para ejecutar las celdas del notebook, haz clic en el botón Ejecutar celda junto a cada celda de código.

El notebook contiene celdas de código y texto que describe cada bloque de código. Cuando se ejecuta una celda de código, se ejecutan sus comandos y se muestra un resultado. Puedes ejecutar las celdas en orden o ejecutar celdas individuales según sea necesario.

Visualiza las métricas de Prometheus de tu clúster

El clúster de GKE se configura con Google Cloud Managed Service para Prometheus, que permite la recopilación de métricas en el formato de Prometheus. Este servicio proporciona una solución completamente administrada para la supervisión y las alertas, lo que permite la recopilación, el almacenamiento y el análisis de métricas del clúster y sus aplicaciones.

En el siguiente diagrama, se muestra cómo Prometheus recopila métricas para tu clúster:

Recopilación de métricas de Prometheus

El clúster privado de GKE en el diagrama contiene los siguientes componentes:

  • Pods del Qdrant que exponen las métricas en la ruta / y el puerto 80. El contenedor de archivo adicional llamado metrics proporciona estas métricas.
  • Recopiladores basados en Prometheus que procesan las métricas de los Pods de Qdrant.
  • Un recurso PodMonitoring que envía las métricas a Cloud Monitoring.

Para exportar y ver las métricas, sigue estos pasos:

  1. Crea el recurso PodMonitoring para extraer métricas por labelSelector:

    kubectl apply -n qdrant -f manifests/03-prometheus-metrics/pod-monitoring.yaml
    

    El manifiesto pod-monitoring.yaml describe el recurso PodMonitoring:

    apiVersion: monitoring.googleapis.com/v1
    kind: PodMonitoring
    metadata:
      name: qdrant
    spec:
      selector:
        matchLabels:
          app: qdrant
          app.kubernetes.io/instance: qdrant-database
      endpoints:
      - port: 80
        interval: 30s
        path: / 
  2. Crea un panel de Cloud Monitoring con la configuración definida en dashboard.json:

    gcloud --project "${PROJECT_ID}" monitoring dashboards create --config-from-file monitoring/dashboard.json
    
  3. Después de que el comando se ejecute de forma correcta, ve a los Paneles de Cloud Monitoring:

    Ir a Descripción general de los paneles

  4. En la lista de paneles, abre el panel Qdrant Overview. La recopilación y visualización de las métricas puede llevar entre 1 y 2 minutos.

    En el panel, se muestra un recuento de las métricas clave:

    • Colecciones
    • Vectores incorporados
    • Operaciones pendientes
    • Ejecución de nodos

Crea una copia de seguridad de la configuración del clúster

La función Copia de seguridad para GKE te permite programar copias de seguridad regulares de toda la configuración del clúster de GKE, incluidas las cargas de trabajo implementadas y sus datos.

En este instructivo, configurarás un plan de copia de seguridad para tu clúster de GKE a fin de realizar copias de seguridad de todas las cargas de trabajo, incluidos Secrets y volúmenes, todos los días a las 3 a.m. Para garantizar una administración del almacenamiento eficiente, las copias de seguridad que tengan más de tres días serían las siguientes: Se borran automáticamente.

Para configurar los planes de copia de seguridad, sigue estos pasos:

  1. Habilita la función de copia de seguridad para GKE en tu clúster:

    gcloud container clusters update ${KUBERNETES_CLUSTER_PREFIX}-cluster \
    --project=${PROJECT_ID} \
    --location=${REGION} \
    --update-addons=BackupRestore=ENABLED
    
  2. Crea un plan de copia de seguridad con un programa diario para todos los espacios de nombres dentro del clúster:

    gcloud beta container backup-restore backup-plans create ${KUBERNETES_CLUSTER_PREFIX}-cluster-backup \
    --project=${PROJECT_ID} \
    --location=${REGION} \
    --cluster="projects/${PROJECT_ID}/locations/${REGION}/clusters/${KUBERNETES_CLUSTER_PREFIX}-cluster" \
    --all-namespaces \
    --include-secrets \
    --include-volume-data \
    --cron-schedule="0 3 * * *" \
    --backup-retain-days=3
    

    El comando usa las variables de entorno relevantes en el entorno de ejecución.

    El formato del nombre del clúster se relaciona con tu proyecto y región de la siguiente manera:

    projects/PROJECT_ID/locations/REGION/clusters/CLUSTER_NAME
    

    Cuando se te solicite, escribe y.. El resultado es similar al siguiente:

    Create request issued for: [qdrant-cluster-backup]
    Waiting for operation [projects/PROJECT_ID/locations/us-central1/operations/operation-1706528750815-610142ffdc9ac-71be4a05-f61c99fc] to complete...⠹
    

    Esta operación puede tardar unos minutos en completarse correctamente. Una vez que se completa la ejecución, el resultado es similar al siguiente:

    Created backup plan [qdrant-cluster-backup].
    
  3. Puedes ver el plan de copia de seguridad recién creado qdrant-cluster-backup en la consola de Copia de seguridad para GKE.

    Ir a Copia de seguridad para GKE

Si deseas restablecer las opciones de configuración de copia de seguridad guardadas, consulta Restablece una copia de seguridad.