Recopila información de depuración
En estas secciones, se describe cómo recopilar registros y configuraciones para la depuración.
Recupera registros de pods del operador
Para recuperar registros de los pods del operador, ejecuta los siguientes comandos:
kubectl logs deployments/fleet-controller-manager -c manager -n alloydb-omni-system > alloydb-omni-system-fleet-controller-manager.out
kubectl logs deployments/local-controller-manager -c manager -n alloydb-omni-system > alloydb-omni-system-local-controller-manager.out
Recupera registros de pods de la base de datos
Para recuperar registros de pods de la base de datos, ejecuta los siguientes comandos:
DB_POD=$(kubectl get pod -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME,alloydbomni.internal.dbadmin.goog/task-type=database -n DB_CLUSTER_NAMESPACE -o jsonpath='{.items[0].metadata.name}')
kubectl logs -c database ${DB_POD} -n DB_CLUSTER_NAMESPACE > ${DB_POD}.log
kubectl logs -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -c database -n DB_CLUSTER_NAMESPACE > dbcluster_DB_CLUSTER_NAME.out
Los siguientes registros son ejemplos de verificaciones de estado de la base de datos exitosas:
I0813 11:01:49.210051 27 gateway.go:184] "DatabaseHealthCheck: request handled successfully" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:01:59.196796 27 gateway.go:166] "DatabaseHealthCheck: handling request" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:01:59.196853 27 database.go:702] "dbdaemon/isRestoreInProgress: starting" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:01:59.209824 27 gateway.go:184] "DatabaseHealthCheck: request handled successfully" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:09.197013 27 gateway.go:166] "DatabaseHealthCheck: handling request" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:09.197093 27 database.go:702] "dbdaemon/isRestoreInProgress: starting" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:09.210010 27 gateway.go:184] "DatabaseHealthCheck: request handled successfully" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:19.197368 27 gateway.go:166] "DatabaseHealthCheck: handling request" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:19.197425 27 database.go:702] "dbdaemon/isRestoreInProgress: starting" log_name="agent" project_ns="default" dbcluster="adb"
I0813 11:02:19.210416 27 gateway.go:184] "DatabaseHealthCheck: request handled successfully" log_name="agent" project_ns="default" dbcluster="adb"
Recupera postgresql.log
Para recuperar postgresql.log, ejecuta el siguiente comando:
DB_POD=$(kubectl get pod -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME,alloydbomni.internal.dbadmin.goog/task-type=database -n DB_CLUSTER_NAMESPACE -o jsonpath='{.items[0].metadata.name}')
kubectl exec -c database -n DB_CLUSTER_NAMESPACE -it ${DB_POD} -- cat /obs/diagnostic/postgresql.log > dbcluster_DB_CLUSTER_NAME_postgresql.log
Recupera el archivo YAML de DBInstance
Para recuperar el archivo YAML de DBInstance, ejecuta el siguiente comando:
kubectl get dbclusters.alloydbomni.dbadmin.goog DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > dbcluster_DB_CLUSTER_NAME.yaml
Recupera configuraciones y registros para situaciones de alta disponibilidad
Para recuperar configuraciones y registros específicos de situaciones de alta disponibilidad (HA), ejecuta los siguientes comandos:
kubectl get replicationconfig.alloydbomni.internal.dbadmin.goog -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > replicationconfig_DB_CLUSTER_NAME.yaml
kubectl get deletestandbyjobs.alloydbomni.internal.dbadmin.goog -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > deletestandbyjobs_DB_CLUSTER_NAME.yaml
kubectl get createstandbyjobs.alloydbomni.internal.dbadmin.goog -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > createstandbyjobs_DB_CLUSTER_NAME.yaml
kubectl get failovers.alloydbomni.dbadmin.goog -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > failovers_DB_CLUSTER_NAME.yaml
Recupera los estados de los pods y STS
Para recuperar los estados de los pods y StatefulSet (STS), ejecuta los siguientes comandos:
DB_POD=$(kubectl get pod -n DB_CLUSTER_NAMESPACE -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME,alloydbomni.internal.dbadmin.goog/task-type=database -o jsonpath='{.items[0].metadata.name}')
kubectl describe pod ${DB_POD} -n DB_CLUSTER_NAMESPACE > pod_${DB_POD}.out
kubectl describe statefulset -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE > statefulset_DB_CLUSTER_NAME.out
Identifica errores
En estas secciones, se describe cómo identificar errores.
Busca el estado de error y los códigos de error
Para identificar el código de error, consulta el archivo YAML de DBCluster en el estado. Consulta la documentación de los códigos de error para obtener más información.
Para recuperar el archivo YAML de DBCluster, ejecuta el siguiente comando:
kubectl get dbclusters.alloydbomni.dbadmin.goog DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > dbcluster_DB_CLUSTER_NAME.yaml
Busca criticalIncidents. Esta sección contiene el código de error y un seguimiento de pila.
Los siguientes son ejemplos de criticalIncidents:
status:
certificateReference:
certificateKey: ca.crt
secretRef:
name: dbs-al-cert-dr-mce
namespace: dr
conditions:
- lastTransitionTime: "2024-10-07T22:46:03Z"
...
criticalIncidents:
- code: DBSE0304
createTime: "2024-10-03T11:50:54Z"
message: 'Healthcheck: Health check invalid result.'
resource:
component: healthcheck
location:
group: alloydbomni.internal.dbadmin.goog
kind: Instance
name: bc0f-dr-mce
namespace: dr
version: v1
stackTrace:
- component: healthcheck
message: 'DBSE0304: Healthcheck: Health check invalid result. rpc error: code
= Code(10304) desc = DBSE0304: Healthcheck: Health check invalid result.
dbdaemon/healthCheck: invalid timestamp read back from the healthcheck table.
Lag is 384837.296269 seconds, wanted 35 seconds'
También puedes recuperar el estado extrayendo campos específicos en formato JSON:
kubectl get dbclusters.alloydbomni.dbadmin.goog DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o jsonpath='{.status.criticalIncidents}' | jq
El resultado es similar a este:
[
{
"code": "DBSE0085",
"createTime": "2024-03-14T05:41:37Z",
"message": "Platform: Pod is unschedulable.",
"resource": {
"component": "provisioning",
"location": {
"group": "alloydb.internal.dbadmin.goog",
"kind": "Instance",
"name": "b55f-testdbcluster",
"namespace": "dbs-system",
"version": "v1"
}
},
"stackTrace": [
{
"component": "provisioning",
"message": "DBSE0085: Platform: Pod is unschedulable. 0/16 nodes are available: pod has unbound immediate PersistentVolumeClaims. preemption: 0/16 nodes are available: 16 No preemption victims found for incoming pod..: Pod is unschedulable"
}
]
}
]
Si el mensaje de error hace referencia al pod de la base de datos, verifica las instancias y los recursos del pod en el mismo espacio de nombres:
kubectl get instances.alloydbomni.internal.dbadmin.goog -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o yaml > instance_DB_CLUSTER_NAME.yaml
kubectl get pods -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME,alloydbomni.internal.dbadmin.goog/task-type=database -n DB_CLUSTER_NAMESPACE
Depura problemas de memoria
En estas secciones, se describe cómo depurar problemas de memoria.
Ejecuta y toma un volcado de montón
Activa esta función solo para solucionar problemas. Recuerda desactivarla después.
Para tomar un volcado de montón, completa los siguientes pasos:
- Modifica la implementación del operador en el espacio de nombres
alloydb-omni-systemcon los nombresfleet-controller-managerylocal-controller-manager. - Agrega el siguiente argumento al pod
--pprof-address=:8642o a cualquier otro puerto disponible. - Espera a que se reinicie el pod del controlador.
Redirecciona el puerto anterior. Por ejemplo:
kubectl port-forward FLEET_CONTROLLER_MANAGER_POD_NAME -n alloydb-omni-system 8642:8642En otra terminal, ejecuta
go tool pprof http://localhost:8642/debug/pprof/heap. Cambia el puerto para que coincida con el puerto anterior si no usas8642.Conéctate a la dirección y ejecuta comandos de solución de problemas. Por ejemplo:
top.Después de terminar la solución de problemas, deshace el paso 1 quitando el argumento y esperando a que se reinicie el pod.
Determina la cantidad de recursos que observa el operador
Para comprender los recursos que están en uso, ejecuta los siguientes comandos:
kubectl get backuprepositories -A | wc -l
kubectl get failovers -A | wc -l
kubectl get instancebackupplans -A | wc -l
kubectl get instancebackups -A | wc -l
kubectl get instancerestores -A | wc -l
kubectl get instances -A | wc -l
kubectl get instanceswitchovers -A | wc -l
kubectl get lrojobs -A | wc -l
kubectl get replicationconfigs -A | wc -l
kubectl get sidecars -A | wc -l
kubectl get deployments -A | wc -l
kubectl get statefulsets -A | wc -l
kubectl get certificates.cert-manager.io -A | wc -l
kubectl get issuers.cert-manager.io -A | wc -l
kubectl get configmaps -A | wc -l
kubectl get persistentvolumeclaims -A | wc -l
kubectl get persistentvolumes -A | wc -l
kubectl get pods -A | wc -l
kubectl get secrets -A | wc -l
kubectl get services -A | wc -l
kubectl get storageclasses.storage.k8s.io -A | wc -l
Por ejemplo, si la cantidad de secretos es alta, puede provocar un error de memoria insuficiente (OOM).
kubectl get secrets -A | wc -l
Depuración avanzada de alta disponibilidad
En esta sección, se hace referencia a recursos que son implementaciones internas. Estos están sujetos a cambios en cualquier momento y no tienen compromisos de retrocompatibilidad. Solo aplica correcciones manuales a problemas en bases de datos que no sean de producción. Es posible que estos pasos hagan que la base de datos sea irrecuperable.
La configuración de alta disponibilidad de AlloyDB Omni tiene tres fases:
- Configura la instancia principal para recibir una conexión de la instancia en espera.
- Inicializa la instancia en espera y conéctala a la instancia principal.
- Establece la configuración principal para que la conexión sea síncrona.
El paso 2 suele ser el más lento. Según el tamaño de la base de datos, puede tardar varias horas.
Cada instancia de replicación debe tener un replicationconfig adjunto. Por ejemplo:
kubectl get replicationconfigs.alloydbomni.internal.dbadmin.goog -n DB_CLUSTER_NAMESPACE
Resultado de ejemplo:
NAME PARENT TYPE ROLE READY HEALTHY SYNC_U SYNC_D SLOT_LOG SLOT_REPLAY
cd58-adb--58ea-adb cd58-adb Physical Upstream True True true
ds-58ea-adb 58ea-adb Physical Downstream True True true
La especificación de la configuración de replicación indica la configuración prevista, mientras que el estado refleja el estado real tal como se lee en la base de datos. Si hay una falta de coincidencia entre la especificación y el estado, el controlador aún intenta aplicar el cambio o hay algún error que impide que se aplique el cambio. Esto se reflejará en los campos de estado.
Trabajos en espera
Debe haber dos conjuntos de trabajos internos que realicen un seguimiento del flujo de trabajo de una instancia en espera:
createstandbyjobs.alloydbomni.internal.dbadmin.googdeletestandbyjobs.alloydbomni.internal.dbadmin.goog
Si la configuración parece estar atascada, consulta los trabajos relacionados con el clúster de base de datos (DBC). Es posible que el trabajo tenga mensajes de error que expliquen en qué estado se encuentra la configuración. Los trabajos se limpian automáticamente un tiempo después de que se completan, por lo que es posible que no veas ningún trabajo si no hay ninguno en curso.
kubectl get createstandbyjobs.alloydbomni.internal.dbadmin.goog -n DB_CLUSTER_NAMESPACE
El resultado es similar a este:
apiVersion: alloydbomni.dbadmin.gdc.goog/v1
kind: CreateStandbyJob
metadata:
creationTimestamp: "2024-11-05T03:34:26Z"
finalizers:
- createstandbyjob.dbadmin.goog/finalizer
generation: 1804
labels:
dbs.internal.dbadmin.goog/dbc: foo-ha-alloydb1-clone1
name: foo-ha-alloydb1-clone1--ac00-foo-ha-alloydb1-clone1--6036-foo-ha-alloydb1-clone1-1730777666
namespace: db
resourceVersion: "11819071"
uid: 1f24cedf-b326-422f-9405-c96c8720cd90
spec:
attempt: 3
cleanup: false
currentStep: SetupSynchronous
currentStepTime: "2024-11-05T03:45:31Z"
metadata:
dbc: foo-ha-alloydb1-clone1
primaryInstance: ac00-foo-ha-alloydb1-clone1
retryError: 'etcdserver: leader changed'
standbyInstance: 6036-foo-ha-alloydb1-clone1
requeueTime: "2024-11-05T18:33:03Z"
startTime: "2024-11-05T03:36:56Z"
Verificación principal
Lo primero que debes verificar es que la instancia principal esté configurada correctamente. Debe haber un perfil de replicación para cada instancia en espera. Si isSynchronous es verdadero en la especificación y el estado, la configuración debería estar completa. Si isSynchronous es falso en la especificación y el estado, aún no llegó al paso 3. Consulta los trabajos en espera para ver si hay trabajos en ejecución y si tienen mensajes de error.
replication:
profiles:
- isActive: true
isSynchronous: true
name: ha:4c82-dbcluster-sample::d85d-dbcluster-sample
password:
name: ha-rep-pw-dbcluster-sample
namespace: default
passwordResourceVersion: "896080"
role: Upstream
type: Physical
username: alloydbreplica
Verifica que la anotación disableHealthcheck sea falsa. Debe inhabilitarse solo durante una conmutación por error o un cambio.
apiVersion: alloydbomni.internal.dbadmin.goog/v1
kind: Instance
metadata:
annotations:
dbs.internal.dbadmin.goog/consecutiveHealthcheckFailures: "0"
dbs.internal.dbadmin.goog/disableHealthcheck: "false"
dr-secondary: "false"
forceReconcile: "1730414498"
Consultas
Para verificar que los recursos del pod de la base de datos estén configurados correctamente, accede a la base de datos como el usuario administrador alloydbadmin. Luego, emite las siguientes consultas:
Ranura de replicación
\x on
select * from pg_replication_slots;
-[ RECORD 1 ]-------+---------------------------------------------
slot_name | d85d_dbcluster_sample
plugin |
slot_type | physical
datoid |
database |
temporary | f
active | t
active_pid | 250
xmin | 16318
catalog_xmin |
restart_lsn | 0/CA657F0
confirmed_flush_lsn |
wal_status | reserved
safe_wal_size |
two_phase | f
Un buen estado es la presencia de una ranura de replicación con el mismo nombre que la instancia en espera. La ausencia de una ranura de replicación indica que el primer paso de configuración no se completó correctamente.
Si active no es t (verdadero), significa que la instancia en espera no se conecta por
algún motivo (redes, instancia en espera que no finaliza la configuración, etcétera) y es probable que la depuración deba
continuar en el lado de la instancia en espera.
Estadísticas de replicación
\x on
select * from pg_stat_replication;
-[ RECORD 1 ]----+----------------------------------------------------------------
pid | 250
usesysid | 16385
usename | alloydbreplica
application_name | d85d_dbcluster_sample
client_addr | 10.54.79.196
client_hostname | gke-samwise-default-pool-afaf152d-8197.us-central1-a.c.foo
client_port | 24914
backend_start | 2024-10-30 21:44:26.408261+00
backend_xmin |
state | streaming
sent_lsn | 0/CA64DA8
write_lsn | 0/CA64DA8
flush_lsn | 0/CA64DA8
replay_lsn | 0/CA64DA8
write_lag |
flush_lag |
replay_lag |
sync_priority | 2
sync_state | sync
reply_time | 2024-11-04 22:08:04.370838+00
Si no existe, significa que no hay una conexión activa. El
sync_state debe ser sync. Si no es sync, significa que no se completó el paso final de la configuración. Consultar los registros o los trabajos debería proporcionar más detalles.
Verificación en espera
La instancia en espera debe tener un perfil de replicación que coincida con el mismo perfil de la instancia principal:
replication:
profiles:
- host: 10.54.79.210
isActive: true
isSynchronous: true
name: ha:4c82-dbcluster-sample::d85d-dbcluster-sample
passwordResourceVersion: "896080"
port: 5432
role: Downstream
type: Physical
username: alloydbreplica
Si no hay conexión de la instancia en espera a la instancia principal, hay dos posibilidades comunes:
- La instancia en espera aún se está configurando.
- La instancia en espera recibe un error mientras se configura o intenta conectarse.
Para verificar si ocurre la opción 1, obtén los registros del pod de la base de datos y busca instrucciones de registro llamadas dbdaemon/setupPhysicalReplicationDownstream. Los siguientes son ejemplos de registros de configuración exitosos:
I1104 22:42:42.604871 103 replication.go:107] "dbdaemon/setupPhysicalReplicationDownstream: begin setup" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
2024-11-04 22:42:42,605 INFO waiting for postgres to stop
2024-11-04 22:42:43,566 INFO stopped: postgres (exit status 0)
I1104 22:42:43.567590 103 replication.go:131] "dbdaemon/setupPhysicalReplicationDownstream: about to call pg_basebackup" log_name="agent" project_ns="default" dbcluster="dbcluster-sample" cmd=["-h","10.54.79.210","-D","/mnt/disks/pgsql/pg_basebackup_data","-U","alloydbreplica","-v","-P","-p","5432","-w","-c","fast"]
I1104 22:42:44.206403 103 replication.go:139] "dbdaemon/setupPhysicalReplicationDownstream: pg_basebackup finished" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.206440 103 replication.go:141] "dbdaemon/setupPhysicalReplicationDownstream: replacing data directory with pg_basebackup data directory" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.244749 103 replication.go:148] "dbdaemon/setupPhysicalReplicationDownstream: replaced data directory with pg_basebackup data directory" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.244783 103 replication.go:150] "dbdaemon/setupPhysicalReplicationDownstream: Creating config files" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.251565 103 replication.go:155] "dbdaemon/setupPhysicalReplicationDownstream: removing postgresql config file for log archiving" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.251621 103 replication.go:160] "dbdaemon/setupPhysicalReplicationDownstream: removing postgresql auto config file" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:44.251689 103 replication.go:165] "dbdaemon/setupPhysicalReplicationDownstream: Successfully wrote to config file" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
2024-11-04 22:42:44,256 INFO spawned: 'postgres' with pid 271
2024-11-04 22:42:45,469 INFO success: postgres entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)
I1104 22:42:45.469838 103 replication.go:174] "dbdaemon/setupPhysicalReplicationDownstream: backup replication configuration after changing replication config" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
I1104 22:42:45.476732 103 replication.go:179] "dbdaemon/setupPhysicalReplicationDownstream: finished standby setup" log_name="agent" project_ns="default" dbcluster="dbcluster-sample"
Si hay un error de conexión, verifica los registros del pod de la base de datos, así como el archivo de registro en la base de datos en /obs/diagnostic/postgresql.log y observa cuál es el error cuando intentas conectarte. Un error común es que no hay conectividad de red entre la instancia en espera y la instancia principal.
Correcciones manuales
La forma más sencilla de solucionar problemas de alta disponibilidad es inhabilitar y volver a habilitar la alta disponibilidad. Para ello, establece numberOfStandbys en 0 y, luego, restablece el número que desees. Si las instancias en espera están atascadas y no se pueden inhabilitar, sigue estos pasos para restablecer manualmente la configuración de alta disponibilidad para que esté vacía:
- Borra manualmente las instancias en espera.
Conéctate a la base de datos principal. Consulta las ranuras de replicación actuales y borra las ranuras de replicación de las instancias en espera que deseas borrar:
select pg_drop_replication_slot('REPLICATION_SLOT_NAME');Borra los perfiles de replicación de la instancia principal que deseas borrar.
Si una instancia no se reconcilió recientemente, puedes editar el valor de la anotación forceReconcile. Establécelo en cualquier valor numérico, que es la marca de tiempo de la última vez que se actualizó esa anotación. El único propósito de esa anotación es proporcionar un campo que podamos actualizar para forzar una nueva reconciliación.
apiVersion: alloydbomni.internal.dbadmin.goog/v1
kind: Instance
metadata:
annotations:
dbs.internal.dbadmin.goog/consecutiveHealthcheckFailures: "0"
dbs.internal.dbadmin.goog/disableHealthcheck: "false"
dr-secondary: "false"
forceReconcile: "1730414498"
Recopila registros de auditoría y del motor de base de datos
Los registros de auditoría y del motor de base de datos están disponibles como archivos dentro del pod de la base de datos (requiere acceso raíz):
obs/diagnostic/postgresql.logobs/diagnostic/postgresql.audit
DB_POD=$(kubectl get pod -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME,alloydbomni.internal.dbadmin.goog/task-type=database -n DB_CLUSTER_NAMESPACE -o jsonpath='{.items[0].metadata.name}')
kubectl exec -c database -n DB_CLUSTER_NAMESPACE ${DB_POD} -it -- /bin/bash
Cuando te conectas al contenedor de la base de datos, sucede lo siguiente:
ls -l /obs/diagnostic/
Resultado de ejemplo:
drwx--S--- 2 postgres postgres 4096 Aug 13 10:22 archive
-rw------- 1 postgres postgres 256050 Aug 13 13:25 postgresql.internal
-rw------- 1 postgres postgres 1594799 Aug 13 13:25 postgresql.log
Recopila métricas de la base de datos y del pod de la base de datos
El operador de AlloyDB Omni proporciona un conjunto de métricas básicas para el motor de AlloyDB Omni y el pod que lo aloja. Las métricas están disponibles como extremos de Prometheus disponibles en el puerto 9187. Para acceder a los extremos, debes identificar el nombre del pod para el pod de la base de datos con la etiqueta DBCluster y comenzar el reenvío de puertos de la siguiente manera:
DB_POD=$(kubectl get pod -l alloydbomni.internal.dbadmin.goog/dbcluster=DB_CLUSTER_NAME -n DB_CLUSTER_NAMESPACE -o jsonpath='{.items[0].metadata.name}')
kubectl port-forward -n DB_CLUSTER_NAMESPACE ${DB_POD} 9187:9187
Accede a las métricas del pod de la base de datos
En otra terminal, haz lo siguiente:
curl http://localhost:9187/metrics | grep HELP
Para obtener más información sobre la supervisión, consulta Supervisa AlloyDB Omni.
También puedes configurar Prometheus para que recopile las métricas en tu clúster de Kubernetes. Consulta la configuración de descubrimiento de servicios de Prometheus Kubernetes para obtener más detalles.