Soluciona problemas del operador de Kubernetes de AlloyDB Omni

Selecciona una versión de la documentación:

En esta página, se muestra cómo resolver problemas con el operador de AlloyDB Omni Kubernetes.

Recopila información de depuración

En estas secciones, se describe cómo recopilar registros y configuraciones para la depuración.

Recupera registros de pods del operador

Para recuperar registros de los pods del operador, ejecuta los siguientes comandos:

kubectl logs deployments/fleet-controller-manager -c manager -n alloydb-omni-system > alloydb-omni-system-fleet-controller-manager.out
kubectl logs deployments/local-controller-manager -c manager -n alloydb-omni-system > alloydb-omni-system-local-controller-manager.out

Recupera registros de pods de la base de datos

Para recuperar registros de pods de la base de datos, ejecuta los siguientes comandos:

DB_POD=$(kubectl get pod -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME,alloydbomni.internal.dbadmin.goog/task-type=database -n DB_CLUSTER_NAMESPACE -o jsonpath='{.items[0].metadata.name}')
kubectl logs -c database ${DB_POD} -n DB_CLUSTER_NAMESPACE > ${DB_POD}.log
kubectl logs -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -c database -n DB_CLUSTER_NAMESPACE > dbcluster_DB_CLUSTER_NAME.out

Los siguientes registros son ejemplos de verificaciones de estado de la base de datos exitosas:

I0813 11:01:49.210051      27 gateway.go:184] "DatabaseHealthCheck: request handled successfully" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:01:59.196796      27 gateway.go:166] "DatabaseHealthCheck: handling request" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:01:59.196853      27 database.go:702] "dbdaemon/isRestoreInProgress: starting" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:01:59.209824      27 gateway.go:184] "DatabaseHealthCheck: request handled successfully" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:09.197013      27 gateway.go:166] "DatabaseHealthCheck: handling request" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:09.197093      27 database.go:702] "dbdaemon/isRestoreInProgress: starting" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:09.210010      27 gateway.go:184] "DatabaseHealthCheck: request handled successfully" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:19.197368      27 gateway.go:166] "DatabaseHealthCheck: handling request" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:19.197425      27 database.go:702] "dbdaemon/isRestoreInProgress: starting" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:19.210416      27 gateway.go:184] "DatabaseHealthCheck: request handled successfully" log_name="agent" project_ns="default" dbcluster="adb"

Recupera postgresql.log

Para recuperar postgresql.log, ejecuta el siguiente comando:

DB_POD=$(kubectl get pod -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME,alloydbomni.internal.dbadmin.goog/task-type=database -n DB_CLUSTER_NAMESPACE -o jsonpath='{.items[0].metadata.name}')
kubectl exec -c database -n DB_CLUSTER_NAMESPACE -it ${DB_POD} -- cat /obs/diagnostic/postgresql.log > dbcluster_DB_CLUSTER_NAME_postgresql.log

Recupera el archivo YAML de DBInstance

Para recuperar el archivo YAML de DBInstance, ejecuta el siguiente comando:

kubectl get dbclusters.alloydbomni.dbadmin.goog DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > dbcluster_DB_CLUSTER_NAME.yaml

Recupera configuraciones y registros para situaciones de alta disponibilidad

Para recuperar configuraciones y registros específicos de situaciones de alta disponibilidad (HA), ejecuta los siguientes comandos:

kubectl get replicationconfig.alloydbomni.internal.dbadmin.goog -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > replicationconfig_DB_CLUSTER_NAME.yaml
kubectl get deletestandbyjobs.alloydbomni.internal.dbadmin.goog -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > deletestandbyjobs_DB_CLUSTER_NAME.yaml
kubectl get createstandbyjobs.alloydbomni.internal.dbadmin.goog -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > createstandbyjobs_DB_CLUSTER_NAME.yaml
kubectl get failovers.alloydbomni.dbadmin.goog -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > failovers_DB_CLUSTER_NAME.yaml

Recupera los estados de los pods y STS

Para recuperar los estados de los pods y StatefulSet (STS), ejecuta los siguientes comandos:

DB_POD=$(kubectl get pod -n DB_CLUSTER_NAMESPACE -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME,alloydbomni.internal.dbadmin.goog/task-type=database -o jsonpath='{.items[0].metadata.name}')
kubectl describe pod ${DB_POD} -n DB_CLUSTER_NAMESPACE > pod_${DB_POD}.out
kubectl describe statefulset -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE > statefulset_DB_CLUSTER_NAME.out

Identifica errores

En estas secciones, se describe cómo identificar errores.

Busca el estado de error y los códigos de error

Para identificar el código de error, consulta el archivo YAML de DBCluster en el estado. Consulta la documentación de los códigos de error para obtener más información.

Para recuperar el archivo YAML de DBCluster, ejecuta el siguiente comando:

kubectl get dbclusters.alloydbomni.dbadmin.goog DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > dbcluster_DB_CLUSTER_NAME.yaml

Busca criticalIncidents. Esta sección contiene el código de error y un seguimiento de pila.

Los siguientes son ejemplos de criticalIncidents:

status:
    certificateReference:
      certificateKey: ca.crt
      secretRef:
        name: dbs-al-cert-dr-mce
        namespace: dr
    conditions:
    -   lastTransitionTime: "2024-10-07T22:46:03Z"
    ...
    criticalIncidents:
    -   code: DBSE0304
      createTime: "2024-10-03T11:50:54Z"
      message: 'Healthcheck: Health check invalid result.'
      resource:
        component: healthcheck
        location:
          group: alloydbomni.internal.dbadmin.goog
          kind: Instance
          name: bc0f-dr-mce
          namespace: dr
          version: v1
      stackTrace:
      -   component: healthcheck
        message: 'DBSE0304: Healthcheck: Health check invalid result. rpc error: code
          = Code(10304) desc = DBSE0304: Healthcheck: Health check invalid result.
          dbdaemon/healthCheck: invalid timestamp read back from the healthcheck table.
          Lag is 384837.296269 seconds, wanted 35 seconds'

También puedes recuperar el estado extrayendo campos específicos en formato JSON:

kubectl get dbclusters.alloydbomni.dbadmin.goog DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o jsonpath='{.status.criticalIncidents}' | jq

El resultado es similar a este:

[
  {
    "code": "DBSE0085",
    "createTime": "2024-03-14T05:41:37Z",
    "message": "Platform: Pod is unschedulable.",
    "resource": {
      "component": "provisioning",
      "location": {
        "group": "alloydb.internal.dbadmin.goog",
        "kind": "Instance",
        "name": "b55f-testdbcluster",
        "namespace": "dbs-system",
        "version": "v1"
      }
    },
    "stackTrace": [
      {
        "component": "provisioning",
        "message": "DBSE0085: Platform: Pod is unschedulable. 0/16 nodes are available: pod has unbound immediate PersistentVolumeClaims. preemption: 0/16 nodes are available: 16 No preemption victims found for incoming pod..: Pod is unschedulable"
      }
    ]
  }
]

Si el mensaje de error hace referencia al pod de la base de datos, verifica las instancias y los recursos del pod en el mismo espacio de nombres:

kubectl get instances.alloydbomni.internal.dbadmin.goog -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > instance_DB_CLUSTER_NAME.yaml
kubectl get pods -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME,alloydbomni.internal.dbadmin.goog/task-type=database -n DB_CLUSTER_NAMESPACE

Depura problemas de memoria

En estas secciones, se describe cómo depurar problemas de memoria.

Ejecuta y toma un volcado de montón

Activa esta función solo para solucionar problemas. Recuerda desactivarla después.

Para tomar un volcado de montón, completa los siguientes pasos:

  1. Modifica la implementación del operador en el espacio de nombres alloydb-omni-system con los nombres fleet-controller-manager y local-controller-manager.
  2. Agrega el siguiente argumento al pod --pprof-address=:8642 o a cualquier otro puerto disponible.
  3. Espera a que se reinicie el pod del controlador.
  4. Redirecciona el puerto anterior. Por ejemplo:

    kubectl port-forward FLEET_CONTROLLER_MANAGER_POD_NAME -n alloydb-omni-system 8642:8642
    
  5. En otra terminal, ejecuta go tool pprof http://localhost:8642/debug/pprof/heap. Cambia el puerto para que coincida con el puerto anterior si no usas 8642.

  6. Conéctate a la dirección y ejecuta comandos de solución de problemas. Por ejemplo: top.

  7. Después de terminar la solución de problemas, deshace el paso 1 quitando el argumento y esperando a que se reinicie el pod.

Determina la cantidad de recursos que observa el operador

Para comprender los recursos que están en uso, ejecuta los siguientes comandos:

kubectl get backuprepositories -A  | wc -l
kubectl get failovers -A  | wc -l
kubectl get instancebackupplans -A  | wc -l
kubectl get instancebackups -A  | wc -l
kubectl get instancerestores -A  | wc -l
kubectl get instances -A  | wc -l
kubectl get instanceswitchovers -A  | wc -l
kubectl get lrojobs -A  | wc -l
kubectl get replicationconfigs -A  | wc -l
kubectl get sidecars -A  | wc -l
kubectl get deployments -A  | wc -l
kubectl get statefulsets -A  | wc -l
kubectl get certificates.cert-manager.io -A  | wc -l
kubectl get issuers.cert-manager.io -A  | wc -l
kubectl get configmaps -A  | wc -l
kubectl get persistentvolumeclaims -A  | wc -l
kubectl get persistentvolumes -A  | wc -l
kubectl get pods -A  | wc -l
kubectl get secrets -A  | wc -l
kubectl get services -A  | wc -l
kubectl get storageclasses.storage.k8s.io -A  | wc -l

Por ejemplo, si la cantidad de secretos es alta, puede provocar un error de memoria insuficiente (OOM).

kubectl get secrets -A | wc -l

Depuración avanzada de alta disponibilidad

En esta sección, se hace referencia a recursos que son implementaciones internas. Estos están sujetos a cambios en cualquier momento y no tienen compromisos de retrocompatibilidad. Solo aplica correcciones manuales a problemas en bases de datos que no sean de producción. Es posible que estos pasos hagan que la base de datos sea irrecuperable.

La configuración de alta disponibilidad de AlloyDB Omni tiene tres fases:

  1. Configura la instancia principal para recibir una conexión de la instancia en espera.
  2. Inicializa la instancia en espera y conéctala a la instancia principal.
  3. Establece la configuración principal para que la conexión sea síncrona.

El paso 2 suele ser el más lento. Según el tamaño de la base de datos, puede tardar varias horas.

Cada instancia de replicación debe tener un replicationconfig adjunto. Por ejemplo:

kubectl get replicationconfigs.alloydbomni.internal.dbadmin.goog -n DB_CLUSTER_NAMESPACE

Resultado de ejemplo:

NAME                 PARENT     TYPE       ROLE         READY   HEALTHY   SYNC_U   SYNC_D   SLOT_LOG   SLOT_REPLAY
cd58-adb--58ea-adb   cd58-adb   Physical   Upstream     True    True      true
ds-58ea-adb          58ea-adb   Physical   Downstream   True    True               true

La especificación de la configuración de replicación indica la configuración prevista, mientras que el estado refleja el estado real tal como se lee en la base de datos. Si hay una falta de coincidencia entre la especificación y el estado, el controlador aún intenta aplicar el cambio o hay algún error que impide que se aplique el cambio. Esto se reflejará en los campos de estado.

Trabajos en espera

Debe haber dos conjuntos de trabajos internos que realicen un seguimiento del flujo de trabajo de una instancia en espera:

  • createstandbyjobs.alloydbomni.internal.dbadmin.goog
  • deletestandbyjobs.alloydbomni.internal.dbadmin.goog

Si la configuración parece estar atascada, consulta los trabajos relacionados con el clúster de base de datos (DBC). Es posible que el trabajo tenga mensajes de error que expliquen en qué estado se encuentra la configuración. Los trabajos se limpian automáticamente un tiempo después de que se completan, por lo que es posible que no veas ningún trabajo si no hay ninguno en curso.

kubectl get createstandbyjobs.alloydbomni.internal.dbadmin.goog -n DB_CLUSTER_NAMESPACE

El resultado es similar a este:

apiVersion: alloydbomni.dbadmin.gdc.goog/v1
  kind: CreateStandbyJob
  metadata:
    creationTimestamp: "2024-11-05T03:34:26Z"
    finalizers:
    -   createstandbyjob.dbadmin.goog/finalizer
    generation: 1804
    labels:
      dbs.internal.dbadmin.goog/dbc: foo-ha-alloydb1-clone1
    name: foo-ha-alloydb1-clone1--ac00-foo-ha-alloydb1-clone1--6036-foo-ha-alloydb1-clone1-1730777666
    namespace: db
    resourceVersion: "11819071"
    uid: 1f24cedf-b326-422f-9405-c96c8720cd90
  spec:
    attempt: 3
    cleanup: false
    currentStep: SetupSynchronous
    currentStepTime: "2024-11-05T03:45:31Z"
    metadata:
      dbc: foo-ha-alloydb1-clone1
      primaryInstance: ac00-foo-ha-alloydb1-clone1
      retryError: 'etcdserver: leader changed'
      standbyInstance: 6036-foo-ha-alloydb1-clone1
    requeueTime: "2024-11-05T18:33:03Z"
    startTime: "2024-11-05T03:36:56Z"

Verificación principal

Lo primero que debes verificar es que la instancia principal esté configurada correctamente. Debe haber un perfil de replicación para cada instancia en espera. Si isSynchronous es verdadero en la especificación y el estado, la configuración debería estar completa. Si isSynchronous es falso en la especificación y el estado, aún no llegó al paso 3. Consulta los trabajos en espera para ver si hay trabajos en ejecución y si tienen mensajes de error.

  replication:
    profiles:
    -   isActive: true
      isSynchronous: true
      name: ha:4c82-dbcluster-sample::d85d-dbcluster-sample
      password:
        name: ha-rep-pw-dbcluster-sample
        namespace: default
      passwordResourceVersion: "896080"
      role: Upstream
      type: Physical
      username: alloydbreplica

Verifica que la anotación disableHealthcheck sea falsa. Debe inhabilitarse solo durante una conmutación por error o un cambio.

apiVersion: alloydbomni.internal.dbadmin.goog/v1
kind: Instance
metadata:
  annotations:
    dbs.internal.dbadmin.goog/consecutiveHealthcheckFailures: "0"
    dbs.internal.dbadmin.goog/disableHealthcheck: "false"
    dr-secondary: "false"
    forceReconcile: "1730414498"

Consultas

Para verificar que los recursos del pod de la base de datos estén configurados correctamente, accede a la base de datos como el usuario administrador alloydbadmin. Luego, emite las siguientes consultas:

Ranura de replicación

\x on
select * from pg_replication_slots;
-[ RECORD 1 ]-------+---------------------------------------------
slot_name           | d85d_dbcluster_sample
plugin              |
slot_type           | physical
datoid              |
database            |
temporary           | f
active              | t
active_pid          | 250
xmin                | 16318
catalog_xmin        |
restart_lsn         | 0/CA657F0
confirmed_flush_lsn |
wal_status          | reserved
safe_wal_size       |
two_phase           | f

Un buen estado es la presencia de una ranura de replicación con el mismo nombre que la instancia en espera. La ausencia de una ranura de replicación indica que el primer paso de configuración no se completó correctamente.

Si active no es t (verdadero), significa que la instancia en espera no se conecta por algún motivo (redes, instancia en espera que no finaliza la configuración, etcétera) y es probable que la depuración deba continuar en el lado de la instancia en espera.

Estadísticas de replicación

\x on
select * from pg_stat_replication;
-[ RECORD 1 ]----+----------------------------------------------------------------
pid              | 250
usesysid         | 16385
usename          | alloydbreplica
application_name | d85d_dbcluster_sample
client_addr      | 10.54.79.196
client_hostname  | gke-samwise-default-pool-afaf152d-8197.us-central1-a.c.foo
client_port      | 24914
backend_start    | 2024-10-30 21:44:26.408261+00
backend_xmin     |
state            | streaming
sent_lsn         | 0/CA64DA8
write_lsn        | 0/CA64DA8
flush_lsn        | 0/CA64DA8
replay_lsn       | 0/CA64DA8
write_lag        |
flush_lag        |
replay_lag       |
sync_priority    | 2
sync_state       | sync
reply_time       | 2024-11-04 22:08:04.370838+00

Si no existe, significa que no hay una conexión activa. El sync_state debe ser sync. Si no es sync, significa que no se completó el paso final de la configuración. Consultar los registros o los trabajos debería proporcionar más detalles.

Verificación en espera

La instancia en espera debe tener un perfil de replicación que coincida con el mismo perfil de la instancia principal:

  replication:
    profiles:
    -   host: 10.54.79.210
      isActive: true
      isSynchronous: true
      name: ha:4c82-dbcluster-sample::d85d-dbcluster-sample
      passwordResourceVersion: "896080"
      port: 5432
      role: Downstream
      type: Physical
      username: alloydbreplica

Si no hay conexión de la instancia en espera a la instancia principal, hay dos posibilidades comunes:

  1. La instancia en espera aún se está configurando.
  2. La instancia en espera recibe un error mientras se configura o intenta conectarse.

Para verificar si ocurre la opción 1, obtén los registros del pod de la base de datos y busca instrucciones de registro llamadas dbdaemon/setupPhysicalReplicationDownstream. Los siguientes son ejemplos de registros de configuración exitosos:

I1104 22:42:42.604871     103 replication.go:107] "dbdaemon/setupPhysicalReplicationDownstream: begin setup" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
2024-11-04 22:42:42,605 INFO waiting for postgres to stop
2024-11-04 22:42:43,566 INFO stopped: postgres (exit status 0)
I1104 22:42:43.567590     103 replication.go:131] "dbdaemon/setupPhysicalReplicationDownstream: about to call pg_basebackup" log_name="agent" project_ns="default" dbcluster="dbcluster-sample" cmd=["-h","10.54.79.210","-D","/mnt/disks/pgsql/pg_basebackup_data","-U","alloydbreplica","-v","-P","-p","5432","-w","-c","fast"]
I1104 22:42:44.206403     103 replication.go:139] "dbdaemon/setupPhysicalReplicationDownstream: pg_basebackup finished" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.206440     103 replication.go:141] "dbdaemon/setupPhysicalReplicationDownstream: replacing data directory with pg_basebackup data directory" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.244749     103 replication.go:148] "dbdaemon/setupPhysicalReplicationDownstream: replaced data directory with pg_basebackup data directory" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.244783     103 replication.go:150] "dbdaemon/setupPhysicalReplicationDownstream: Creating config files" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.251565     103 replication.go:155] "dbdaemon/setupPhysicalReplicationDownstream: removing postgresql config file for log archiving" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.251621     103 replication.go:160] "dbdaemon/setupPhysicalReplicationDownstream: removing postgresql auto config file" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.251689     103 replication.go:165] "dbdaemon/setupPhysicalReplicationDownstream: Successfully wrote to config file" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
2024-11-04 22:42:44,256 INFO spawned: 'postgres' with pid 271
2024-11-04 22:42:45,469 INFO success: postgres entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)
I1104 22:42:45.469838     103 replication.go:174] "dbdaemon/setupPhysicalReplicationDownstream: backup replication configuration after changing replication config" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:45.476732     103 replication.go:179] "dbdaemon/setupPhysicalReplicationDownstream: finished standby setup" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"

Si hay un error de conexión, verifica los registros del pod de la base de datos, así como el archivo de registro en la base de datos en /obs/diagnostic/postgresql.log y observa cuál es el error cuando intentas conectarte. Un error común es que no hay conectividad de red entre la instancia en espera y la instancia principal.

Correcciones manuales

La forma más sencilla de solucionar problemas de alta disponibilidad es inhabilitar y volver a habilitar la alta disponibilidad. Para ello, establece numberOfStandbys en 0 y, luego, restablece el número que desees. Si las instancias en espera están atascadas y no se pueden inhabilitar, sigue estos pasos para restablecer manualmente la configuración de alta disponibilidad para que esté vacía:

  1. Borra manualmente las instancias en espera.
  2. Conéctate a la base de datos principal. Consulta las ranuras de replicación actuales y borra las ranuras de replicación de las instancias en espera que deseas borrar:

    select pg_drop_replication_slot('REPLICATION_SLOT_NAME');
    
  3. Borra los perfiles de replicación de la instancia principal que deseas borrar.

Si una instancia no se reconcilió recientemente, puedes editar el valor de la anotación forceReconcile. Establécelo en cualquier valor numérico, que es la marca de tiempo de la última vez que se actualizó esa anotación. El único propósito de esa anotación es proporcionar un campo que podamos actualizar para forzar una nueva reconciliación.

apiVersion: alloydbomni.internal.dbadmin.goog/v1
kind: Instance
metadata:
  annotations:
    dbs.internal.dbadmin.goog/consecutiveHealthcheckFailures: "0"
    dbs.internal.dbadmin.goog/disableHealthcheck: "false"
    dr-secondary: "false"
    forceReconcile: "1730414498"

Recopila registros de auditoría y del motor de base de datos

Los registros de auditoría y del motor de base de datos están disponibles como archivos dentro del pod de la base de datos (requiere acceso raíz):

  • obs/diagnostic/postgresql.log
  • obs/diagnostic/postgresql.audit
DB_POD=$(kubectl get pod -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME,alloydbomni.internal.dbadmin.goog/task-type=database -n DB_CLUSTER_NAMESPACE -o jsonpath='{.items[0].metadata.name}')
kubectl exec -c database -n DB_CLUSTER_NAMESPACE ${DB_POD} -it -- /bin/bash

Cuando te conectas al contenedor de la base de datos, sucede lo siguiente:

ls -l /obs/diagnostic/

Resultado de ejemplo:

drwx--S--- 2 postgres postgres    4096 Aug 13 10:22 archive
-rw------- 1 postgres postgres  256050 Aug 13 13:25 postgresql.internal
-rw------- 1 postgres postgres 1594799 Aug 13 13:25 postgresql.log

Recopila métricas de la base de datos y del pod de la base de datos

El operador de AlloyDB Omni proporciona un conjunto de métricas básicas para el motor de AlloyDB Omni y el pod que lo aloja. Las métricas están disponibles como extremos de Prometheus disponibles en el puerto 9187. Para acceder a los extremos, debes identificar el nombre del pod para el pod de la base de datos con la etiqueta DBCluster y comenzar el reenvío de puertos de la siguiente manera:

DB_POD=$(kubectl get pod -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o jsonpath='{.items[0].metadata.name}')
kubectl port-forward -n DB_CLUSTER_NAMESPACE ${DB_POD} 9187:9187

Accede a las métricas del pod de la base de datos

En otra terminal, haz lo siguiente:

curl http://localhost:9187/metrics | grep HELP

Para obtener más información sobre la supervisión, consulta Supervisa AlloyDB Omni.

También puedes configurar Prometheus para que recopile las métricas en tu clúster de Kubernetes. Consulta la configuración de descubrimiento de servicios de Prometheus Kubernetes para obtener más detalles.