Questo tutorial mostra come eseguire Elastic Stack su GKE utilizzando l'operatore Elastic Cloud on Kubernetes (ECK).
Elastic Stack è una soluzione open source molto diffusa utilizzata per il logging, il monitoraggio e l'analisi dei dati in tempo reale. Utilizzando Elastic Stack su GKE, puoi usufruire della scalabilità e dell'affidabilità fornite da GKE Autopilot e delle potenti funzionalità di Elastic Stack.
Questo tutorial è rivolto agli amministratori di Kubernetes o ai site reliability engineer.
Prepara l'ambiente
In questo tutorial utilizzerai Cloud Shell per gestire le risorse ospitate
su Google Cloud. Cloud Shell è preinstallato con il software
necessario per questo tutorial, tra cui
kubectl
,
Helm e gcloud CLI.
Per configurare l'ambiente con Cloud Shell:
Avvia una sessione di Cloud Shell dalla console Google Cloud facendo clic su
Attiva Cloud Shell nella consoleGoogle Cloud . Viene avviata una sessione nel riquadro inferiore della console Google Cloud .
Aggiungi un repository di grafici Helm e aggiornalo:
helm repo add elastic https://helm.elastic.co helm repo update
Clona il repository GitHub:
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples.git
Passa alla directory di lavoro:
cd kubernetes-engine-samples/observability/elastic-stack-tutorial
Crea un cluster GKE
Crea un cluster GKE con la raccolta delle metriche del control plane attivata:
gcloud container clusters create-auto elk-stack \
--location="us-central1" \
--monitoring="SYSTEM,WORKLOAD,API_SERVER,SCHEDULER,CONTROLLER_MANAGER"
Esegui il deployment dell'operatore ECK
Elastic Cloud on Kubernetes (ECK) è una piattaforma per il deployment e la gestione di Elastic Stack sui cluster Kubernetes.
ECK automatizza il deployment e la gestione dei cluster Elastic Stack, semplificando la procedura di configurazione e manutenzione di Elastic Stack su Kubernetes. Fornisce un insieme di risorse personalizzate di Kubernetes che puoi utilizzare per creare e configurare Elasticsearch, Kibana, il server Application Performance Management e altri componenti di Elastic Stack in Kubernetes. Ciò consente agli sviluppatori e ai team DevOps di configurare e gestire i cluster Elastic Stack su larga scala.
ECK supporta più nodi Elasticsearch, il failover automatico delle applicazioni, gli upgrade senza interruzioni e la crittografia SSL. ECK include anche funzionalità che ti consentono di monitorare e risolvere i problemi relativi alle prestazioni di Elasticsearch.
Installa il grafico Helm ECK:
helm upgrade --install "elastic-operator" "elastic/eck-operator" \ --version="2.8.0" \ --create-namespace \ --namespace="elastic-system" \ --set="resources.limits.cpu=250m" \ --set="resources.limits.memory=512Mi" \ --set="resources.limits.ephemeral-storage=1Gi" \ --set="resources.requests.cpu=250m" \ --set="resources.requests.memory=512Mi" \ --set="resources.requests.ephemeral-storage=1Gi"
Attendi che l'operatore sia pronto:
watch kubectl get pods -n elastic-system
L'output è simile al seguente:
NAME READY STATUS RESTARTS AGE elastic-operator-0 1/1 Running 0 31s
Quando l'operatore
STATUS
èRunning
, torna alla riga di comando premendoCtrl+C
.
Configura Elastic Stack con ECK
Utilizzando Elastic Stack con Elasticsearch, Kibana ed Elastic Agent in modalità Fleet, puoi configurare una soluzione potente, scalabile e completamente gestita per la gestione e la visualizzazione dei dati utilizzando Kibana.
Kibana è uno strumento di analisi e visualizzazione dei dati open source che ti consente di cercare, analizzare e visualizzare i dati in Elasticsearch.
Elastic Agent è un leggero shipper di dati che raccoglie dati da diverse origini, come log o metriche, e li invia automaticamente a Elasticsearch.
Elastic Fleet è una modalità di funzionamento in cui gli agenti Elastic comunicano con un server fleet centrale, che gestisce la loro configurazione e gestione. Il server fleet semplifica il deployment, la configurazione e lo scaling degli agenti Elastic, rendendo più semplice la gestione di deployment di grandi dimensioni e complessi.
La scalabilità automatica di Elasticsearch è una funzionalità di automonitoraggio che può segnalare quando sono necessarie risorse aggiuntive in base a un criterio definito dall'operatore. Ad esempio, un criterio potrebbe specificare che un determinato livello deve essere scalato in base allo spazio su disco disponibile. Elasticsearch può monitorare lo spazio su disco e suggerire lo scaling se prevede una carenza, anche se spetta comunque all'operatore aggiungere le risorse necessarie. Per ulteriori informazioni sulla scalabilità automatica di Elasticsearch, consulta Scalabilità automatica nella documentazione di Elasticsearch.
Configura un cluster Elasticsearch
Elasticsearch fornisce un motore di ricerca e analisi distribuito e RESTful progettato per archiviare e cercare grandi volumi di dati in modo rapido ed efficiente.
Quando esegui il deployment di Elastic Stack su Kubernetes, devi gestire le impostazioni della VM, in particolare vm.max_map_count setting
, che è richiesto da Elasticsearch. vm.max_map_count
specifica il numero di aree di memoria che un processo può allocare a un file. Per un funzionamento ottimale, Elasticsearch deve avere questo valore impostato
almeno su 262144
. Per saperne di più, consulta la sezione
Memoria virtuale
nella documentazione di ECK.
Esamina il seguente manifest:
Questo manifest descrive un DaemonSet che configura l'impostazione del kernel direttamente sull'host. Un DaemonSet è un controller Kubernetes che garantisce che una copia di un pod venga eseguita su ogni nodo di un cluster.
Il manifest precedente è in una lista consentita per l'esecuzione su Autopilot. Non modificare questo manifest, incluse le immagini del contenitore.
Applica questo manifest al tuo cluster:
kubectl apply -f max-map-count-setter-ds.yaml
Esamina il seguente manifest:
Questo manifest definisce un cluster Elasticsearch con i seguenti campi:
initContainers
: attende la modifica delle impostazioni del kernel dell'host di memoria virtuale.podDisruptionBudget
: specifica che il cluster non verrà eliminato durante il processo di deframmentazione dei pod.config.node.roles
: la configurazione dei ruoli dei nodi Elasticsearch. Per saperne di più sui ruoli dei nodi, consulta la sezione Nodo nella documentazione di Elasticsearch.
Applica questo manifest al tuo cluster:
kubectl apply -f elasticsearch.yaml
Attendi che il cluster Elasticsearch sia pronto:
watch kubectl --namespace elastic-system get elasticsearches.elasticsearch.k8s.elastic.co
L'output è simile al seguente:
NAME HEALTH NODES VERSION PHASE AGE elasticsearch green 3 8.8.0 Ready 5m3s
Quando il cluster Elasticsearch
HEALTH
ègreen
ePHASE
èReady
, torna alla riga di comando premendoCtrl+C
.
Configura Kibana
Esamina il seguente manifest:
Questo manifest descrive una risorsa personalizzata Kibana che configura i criteri dell'agente per il server fleet e gli agenti.
Applica questo manifest al tuo cluster:
kubectl apply -f kibana.yaml
Attendi che i pod siano pronti:
watch kubectl --namespace elastic-system get kibanas.kibana.k8s.elastic.co
L'output è simile al seguente:
NAME HEALTH NODES VERSION AGE kibana green 1 8.8.0 6m47s
Quando i pod
HEALTH
sonogreen
, torna alla riga di comando premendoCtrl+C
.
Configura un bilanciatore del carico per accedere a Kibana
Per accedere a Kibana, crea un oggetto Ingress di Kubernetes, un certificato gestito da Google, un indirizzo IP globale e una zona DNS.
Crea un indirizzo IP esterno globale:
gcloud compute addresses create "elastic-stack" --global
Crea una zona gestita e un insieme di record in Cloud DNS:
gcloud dns managed-zones create "elk" \ --description="DNS Zone for Airflow" \ --dns-name="elk.BASE_DOMAIN" \ --visibility="public" gcloud dns record-sets create "elk.BASE_DOMAIN" \ --rrdatas="$(gcloud compute addresses describe "elastic-stack" --global --format="value(address)")" \ --ttl="300" \ --type="A" \ --zone="elk"
Delega la zona DNS come sottodominio del dominio di base creando un insieme di record NS con un elenco di server dei nomi. Puoi ottenere un elenco di server dei nomi utilizzando il seguente comando:
gcloud dns record-sets describe elk.BASE_DOMAIN \ --type="NS" \ --zone="elk" \ --format="value(DATA)"
Esamina il seguente manifest:
Questo manifest descrive un ManagedCertificate che esegue il provisioning di un certificato SSL per stabilire la connessione TLS.
Applica il manifest al cluster:
kubectl apply -f ingress.yaml
Configura gli agenti elastici
Esamina il seguente manifest:
Questo manifest descrive un Elastic Agent che configura un server fleet con ECK.
Applica questo manifest al tuo cluster:
kubectl apply -f fleet-server-and-agents.yaml
Attendi che i pod siano pronti:
watch kubectl --namespace elastic-system get agents.agent.k8s.elastic.co
L'output è simile al seguente:
NAME HEALTH AVAILABLE EXPECTED VERSION AGE elastic-agent green 5 5 8.8.0 14m fleet-server green 1 1 8.8.0 16m
Quando i pod
HEALTH
sonogreen
, torna alla riga di comando premendoCtrl+C
.
Configurazione di logging e monitoraggio
Elastic Stack può utilizzare l'esportatore kube-state-metrics per raccogliere metriche a livello di cluster.
Installa kube-state-metrics:
helm repo add prometheus-community https://prometheus-community.github.io/helm-charts helm repo update helm install kube-state-metrics prometheus-community/kube-state-metrics --namespace elastic-system
Recupera le credenziali utente predefinite di Kibana
elastic
:kubectl get secret elasticsearch-es-elastic-user -o yaml -n elastic-system -o jsonpath='{.data.elastic}' | base64 -d
Apri
https://elk.BASE_DOMAIN
nel browser e accedi a Kibana con le credenziali.Nel menu, seleziona Analytics, poi Dashboard.
Nel campo di testo di ricerca, inserisci Panoramica di Kubernetes e seleziona Dashboard Panoramica per visualizzare le metriche di base.
Alcuni pannelli della dashboard potrebbero non mostrare dati o messaggi di errore perché GKE limita l'accesso ad alcuni endpoint del control plane che Kibana utilizza per ottenere le metriche del cluster.