Cloud Service Mesh es una herramienta muy útil para gestionar y monitorizar aplicaciones distribuidas. Para sacar el máximo partido a Cloud Service Mesh, es útil conocer sus abstracciones subyacentes, como los contenedores y Kubernetes. En este tutorial se explica cómo preparar una aplicación para Cloud Service Mesh, desde el código fuente hasta un contenedor que se ejecuta en GKE, justo antes de instalar Cloud Service Mesh.
Si ya conoces los conceptos de Kubernetes y de malla de servicios, puedes saltarte este tutorial e ir directamente a la guía de instalación de Cloud Service Mesh.
Descargar el código de ejemplo
Descarga el código fuente de
helloserver:git clone https://github.com/GoogleCloudPlatform/anthos-service-mesh-samplesCambia al directorio del código de ejemplo:
cd anthos-service-mesh-samples/docs/helloserver
Explorar la aplicación multiservicio
La aplicación de ejemplo está escrita en Python y tiene dos componentes que se comunican mediante REST:
server: un servidor sencillo con un endpointGET,/, que imprime "hola mundo" en la consola.loadgen: una secuencia de comandos que envía tráfico aserver, con un número configurable de solicitudes por segundo (RPS).
Ejecutar la aplicación desde la fuente
Para familiarizarte con la aplicación de ejemplo, ejecútala en Cloud Shell.
En el directorio
sample-apps/helloserver, ejecuta el siguiente comando:serverpython3 server/server.pyAl iniciarse,
servermuestra lo siguiente:INFO:root:Starting server...
Abre otra ventana de terminal para poder enviar solicitudes al
server. Haz clic en para abrir otra sesión.Envía una solicitud a
server:curl http://localhost:8080serverresponde:Hello World!
En el directorio donde has descargado el código de ejemplo, cambia al directorio que contiene
loadgen:cd YOUR_WORKING_DIRECTORY/anthos-service-mesh-samples/docs/helloserver/loadgen
Crea las siguientes variables de entorno:
export SERVER_ADDR=http://localhost:8080 export REQUESTS_PER_SECOND=5Inicio
virtualenv:virtualenv --python python3 envActiva el entorno virtual:
source env/bin/activateInstala los requisitos de
loadgen:pip3 install -r requirements.txtEjecuta
loadgen:python3 loadgen.pyAl iniciarse,
loadgenmuestra un mensaje similar al siguiente:Starting loadgen: 2019-05-20 10:44:12.448415 5 request(s) complete to http://localhost:8080
En la otra ventana de terminal,
serverescribe mensajes en la consola similares a los siguientes:127.0.0.1 - - [21/Jun/2019 14:22:01] "GET / HTTP/1.1" 200 - INFO:root:GET request, Path: / Headers: Host: localhost:8080 User-Agent: python-requests/2.22.0 Accept-Encoding: gzip, deflate Accept: */*
Desde el punto de vista de la red, toda la aplicación se ejecuta ahora en el mismo host. Por este motivo, puedes usar
localhostpara enviar solicitudes a laserver.Para detener
loadgenyserver, introduceCtrl-cen cada ventana de terminal.En la ventana de terminal
loadgen, desactiva el entorno virtual:deactivate
Contenerizar la aplicación
Para ejecutar la aplicación en GKE, debes empaquetar la aplicación de ejemplo (server y loadgen) en contenedores. Un contenedor es una forma de empaquetar una aplicación de forma que esté aislada del entorno subyacente.
Para contenerizar la aplicación, necesitas un Dockerfile. Un Dockerfile es un archivo de texto que define los comandos necesarios para ensamblar el código fuente de la aplicación y sus dependencias en una imagen de Docker. Una vez que hayas creado la imagen, súbela a un registro de contenedores, como Docker Hub o Container Registry.
La muestra incluye un Dockerfile para server y loadgen
con todos los comandos necesarios para crear las imágenes. A continuación, se muestra el Dockerfile de server:
- El comando
FROM python:3-slim as baseindica a Docker que use la imagen de Python 3 más reciente como imagen base. - El comando
COPY . .copia los archivos de origen del directorio de trabajo actual (en este caso, soloserver.py) en el sistema de archivos del contenedor. ENTRYPOINTdefine el comando que se usa para ejecutar el contenedor. En este caso, el comando es casi el mismo que el que usaste para ejecutarserver.pydesde el código fuente.- El comando
EXPOSEespecifica queserverescucha en el puerto8080. Este comando no expone ningún puerto, pero sirve como documentación para indicar que debes abrir el puerto8080cuando ejecutes el contenedor.
Preparar la contenedorización de la aplicación
Define las siguientes variables de entorno. Sustituye
PROJECT_IDpor el ID de tu proyectoGoogle Cloud .export PROJECT_ID="PROJECT_ID"
export GCR_REPO="asm-ready"
Usa los valores de
PROJECT_IDyGCR_REPOpara etiquetar la imagen Docker cuando la compiles y, a continuación, la subas a tu Container Registry privado.Define el proyecto Google Cloud predeterminado de Google Cloud CLI.
gcloud config set project $PROJECT_ID
Define la zona predeterminada de la CLI de Google Cloud.
gcloud config set compute/zone us-central1-bAsegúrate de que el servicio Container Registry esté habilitado en tuGoogle Cloud proyecto.
gcloud services enable containerregistry.googleapis.com
Contenedorizar el server
Cambia al directorio donde se encuentra el ejemplo
server:cd YOUR_WORKING_DIRECTORY/anthos-service-mesh-samples/docs/helloserver/server/
Crea la imagen con
Dockerfiley las variables de entorno que hayas definido anteriormente:docker build -t gcr.io/$PROJECT_ID/$GCR_REPO/helloserver:v0.0.1 .La bandera
-trepresenta la etiqueta de Docker. Es el nombre de la imagen que usas al implementar el contenedor.Envía la imagen a Container Registry:
docker push gcr.io/$PROJECT_ID/$GCR_REPO/helloserver:v0.0.1
Contenedorizar el loadgen
Cambia al directorio donde se encuentra el ejemplo
loadgen:cd ../loadgenCrea la imagen:
docker build -t gcr.io/$PROJECT_ID/$GCR_REPO/loadgen:v0.0.1 .Envía la imagen a Container Registry:
docker push gcr.io/$PROJECT_ID/$GCR_REPO/loadgen:v0.0.1
Enumera las imágenes
Obtén una lista de las imágenes del repositorio para confirmar que se han enviado:
gcloud container images list --repository gcr.io/$PROJECT_ID/asm-ready
El comando responde con los nombres de las imágenes que acabas de enviar:
NAME gcr.io/PROJECT_ID/asm-ready/helloserver gcr.io/PROJECT_ID/asm-ready/loadgen
Crear un clúster de GKE
Puedes ejecutar estos contenedores en la VM de Cloud Shell con el comando docker run. Sin embargo, en producción, necesitas orquestar los contenedores de una forma más unificada. Por ejemplo, necesitas un sistema que se asegure de que los contenedores siempre estén en funcionamiento y una forma de aumentar la capacidad y de iniciar instancias adicionales de un contenedor para gestionar los aumentos de tráfico.
Puedes usar GKE para ejecutar aplicaciones en contenedores. GKE es una plataforma de orquestación de contenedores que funciona conectando máquinas virtuales en un clúster. Cada VM se denomina nodo. Los clústeres de GKE se basan en el sistema de gestión de clústeres de código abierto de Kubernetes. Kubernetes proporciona los mecanismos a través de los cuales interactúas con tu clúster.
Para crear un clúster de GKE, sigue estos pasos:
Crea el clúster:
gcloud container clusters create asm-ready \ --cluster-version latest \ --machine-type=n1-standard-4 \ --num-nodes 4
El comando
gcloudcrea un clúster en el proyecto y la zona que hayas definido anteriormente.Google Cloud Para ejecutar Cloud Service Mesh, te recomendamos que uses al menos 4 nodos y el tipo de máquina n1-standard-4.El comando para crear el clúster tarda unos minutos en completarse. Cuando el clúster esté listo, el comando mostrará un mensaje similar al siguiente:
NAME LOCATION MASTER_VERSION MASTER_IP MACHINE_TYPE NODE_VERSION NUM_NODES STATUS asm-ready us-central1-b 1.13.5-gke.10 203.0.113.1 n1-standard-2 1.13.5-gke.10 4 RUNNING
Proporciona credenciales a la herramienta de línea de comandos
kubectlpara poder usarla y gestionar el clúster:gcloud container clusters get-credentials asm-readyAhora puedes usar
kubectlpara comunicarte con Kubernetes. Por ejemplo, puede ejecutar el siguiente comando para obtener el estado de los nodos:kubectl get nodesEl comando responde con una lista de los nodos, similar a la siguiente:
NAME STATUS ROLES AGE VERSION gke-asm-ready-default-pool-dbeb23dc-1vg0 Ready <none> 99s v1.13.6-gke.13 gke-asm-ready-default-pool-dbeb23dc-36z5 Ready <none> 100s v1.13.6-gke.13 gke-asm-ready-default-pool-dbeb23dc-fj7s Ready <none> 99s v1.13.6-gke.13 gke-asm-ready-default-pool-dbeb23dc-wbjw Ready <none> 99s v1.13.6-gke.13
Conocer los conceptos clave de Kubernetes
En el siguiente diagrama se muestra la aplicación que se ejecuta en GKE:
Antes de desplegar los contenedores en GKE, te recomendamos que repases algunos conceptos clave de Kubernetes. Al final de este tutorial, se incluyen enlaces para que puedas obtener más información sobre cada concepto.
Nodos y clústeres: en GKE, un nodo es una VM. En otras plataformas de Kubernetes, un nodo puede ser una máquina física o virtual. Un clúster es un conjunto de nodos que se pueden tratar como una sola máquina en la que se despliega una aplicación en contenedores.
Pods: en Kubernetes, los contenedores se ejecutan en un pod. Un pod es la unidad atómica de Kubernetes. Un pod contiene uno o varios contenedores. Despliega los contenedores
serveryloadgenen sus respectivos pods. Cuando un pod ejecuta varios contenedores (por ejemplo, un servidor de aplicaciones y un servidor proxy), los contenedores se gestionan como una sola entidad y comparten los recursos del pod.Despliegues: un despliegue es un objeto de Kubernetes que representa un conjunto de pods idénticos. Un Deployment ejecuta varias réplicas de los pods distribuidas entre los nodos de un clúster. Un Deployment sustituye automáticamente cualquier Pod que falle o deje de responder.
Servicio de Kubernetes: al ejecutar el código de la aplicación en GKE, cambia la red entre el
loadgeny elserver. Cuando ejecutaste los servicios en una VM de Cloud Shell, pudiste enviar solicitudes aservermediante la direcciónlocalhost:8080. Después de desplegar en GKE, los pods se programan para que se ejecuten en los nodos disponibles. De forma predeterminada, no puedes controlar en qué nodo se ejecuta el pod, por lo que los pods no tienen direcciones IP estables.Para obtener una dirección IP de
server, debes definir una abstracción de red sobre los pods llamada servicio de Kubernetes. Un servicio de Kubernetes proporciona un endpoint de red estable para un conjunto de pods. Hay varios tipos de Servicios. Elserverusa unLoadBalancer, que expone una dirección IP externa para que puedas acceder alserverdesde fuera del clúster.Kubernetes también tiene un sistema DNS integrado que asigna nombres DNS (por ejemplo,
helloserver.default.cluster.local) a los servicios. De esta forma, los pods del clúster pueden acceder a otros pods del clúster con una dirección estable. No puedes usar este nombre de DNS fuera del clúster, por ejemplo, desde Cloud Shell.
Manifiestos de Kubernetes
Cuando ejecutaste la aplicación desde el código fuente, usaste un comando imperativo: python3 server.py
Imperativo significa que se basa en verbos: "haz esto".
Por el contrario, Kubernetes funciona con un modelo declarativo. Esto significa que, en lugar de decirle a Kubernetes exactamente qué debe hacer, le proporcionas el estado deseado. Por ejemplo, Kubernetes inicia y finaliza pods según sea necesario para que el estado real del sistema coincida con el estado deseado.
Especificas el estado deseado en un conjunto de manifiestos o archivos YAML. Un archivo YAML contiene la especificación de uno o varios objetos de Kubernetes.
El ejemplo contiene un archivo YAML para server y loadgen. Cada archivo YAML especifica el estado deseado del objeto Deployment y del servicio de Kubernetes.
Servidor
kindindica el tipo de objeto.metadata.nameespecifica el nombre de la implementación.- El primer campo
speccontiene una descripción del estado deseado. spec.replicasespecifica el número de pods que se quieren.- La sección
spec.templatedefine una plantilla de pod. En la especificación de los pods se incluye el campoimage, que es el nombre de la imagen que se va a extraer de Container Registry.
El Servicio se define de la siguiente manera:
LoadBalancer: los clientes envían solicitudes a la dirección IP de un balanceador de carga de red, que tiene una dirección IP estable y se puede acceder a él desde fuera del clúster.targetPort: Recuerda que el comandoEXPOSE 8080deDockerfileno expone ningún puerto. Expón el puerto8080para poder acceder al contenedorserverfuera del clúster. En este caso,hellosvc.default.cluster.local:80(nombre abreviado:hellosvc) se asigna al puerto8080de la IP del podhelloserver.port: es el número de puerto que usan otros servicios del clúster al enviar solicitudes.
Generador de carga
El objeto Deployment de loadgen.yaml es similar a server.yaml. Una diferencia destacable es que el objeto Deployment contiene una sección llamada env. En esta sección se definen las variables de entorno que requiere loadgen, que ya configuraste cuando ejecutaste la aplicación desde la fuente.
Como loadgen no acepta solicitudes entrantes, el campo type se ha definido como ClusterIP. Este tipo proporciona una dirección IP estable que pueden usar los servicios del clúster, pero la dirección IP no se expone a los clientes externos.
Desplegar los contenedores en GKE
Cambia al directorio donde se encuentra el ejemplo
server:cd YOUR_WORKING_DIRECTORY/anthos-service-mesh-samples/docs/helloserver/server/
Abre
server.yamlen un editor de texto.Sustituye el nombre del campo
imagepor el nombre de tu imagen de Docker.image: gcr.io/PROJECT_ID/asm-ready/helloserver:v0.0.1
Sustituye
PROJECT_IDpor el ID de tu proyecto. Google CloudGuarda y cierra
server.yaml.Despliega el archivo YAML en Kubernetes:
kubectl apply -f server.yamlSi la acción se realiza correctamente, el comando mostrará lo siguiente:
deployment.apps/helloserver created service/hellosvc created
Cambia al directorio en el que se encuentra
loadgen.cd ../loadgenAbre
loadgen.yamlen un editor de texto.Sustituye el nombre del campo
imagepor el nombre de tu imagen de Docker.image: gcr.io/PROJECT_ID/asm-ready/loadgen:v0.0.1
Sustituye
PROJECT_IDpor el ID de tu proyecto. Google CloudGuarda y cierra
loadgen.yamly cierra el editor de texto.Despliega el archivo YAML en Kubernetes:
kubectl apply -f loadgen.yamlSi la acción se realiza correctamente, el comando mostrará lo siguiente:
deployment.apps/loadgenerator created service/loadgensvc created
Comprueba el estado de los pods:
kubectl get podsEl comando responde con un estado similar al siguiente:
NAME READY STATUS RESTARTS AGE helloserver-69b9576d96-mwtcj 1/1 Running 0 58s loadgenerator-774dbc46fb-gpbrz 1/1 Running 0 57s
Obtén los registros de la aplicación del pod
loadgen. SustituyePOD_IDpor el identificador de la salida anterior.kubectl logs loadgenerator-POD_ID
Obtén las direcciones IP externas de
hellosvc:kubectl get serviceLa respuesta del comando es similar a la siguiente:
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE hellosvc LoadBalancer 10.81.15.158 192.0.2.1 80:31127/TCP 33m kubernetes ClusterIP 10.81.0.1 <none> 443/TCP 93m loadgensvc ClusterIP 10.81.15.155 <none> 80/TCP 4m52s
Envía una solicitud a
hellosvc. SustituyeEXTERNAL_IPpor la dirección IP externa de tuhellosvc.curl http://EXTERNAL_IP
Preparado para Cloud Service Mesh
Ahora la aplicación se ha desplegado en GKE. El loadgen
puede usar el DNS de Kubernetes (hellosvc:80) para enviar solicitudes al server, y
puedes enviar solicitudes al server con una dirección IP externa. Aunque Kubernetes te ofrece muchas funciones, falta información sobre los servicios:
- ¿Cómo interactúan los servicios? ¿Qué relación hay entre los servicios? ¿Cómo fluye el tráfico entre los servicios? Sabes que el
loadgenenvía solicitudes alserver, pero imagina que no conoces la aplicación. No puedes responder a estas preguntas consultando la lista de pods en ejecución en GKE. - Métricas: ¿cuánto tiempo tarda
serveren responder a las solicitudes entrantes? ¿Cuántas solicitudes por segundo (SPS) se reciben enserver? ¿Hay alguna respuesta de error? - Información de seguridad: ¿el tráfico entre
loadgenyserveres sin cifrarHTTPo mTLS?
Cloud Service Mesh puede responder a estas preguntas. Cloud Service Mesh es una versión gestionada por Google Clouddel proyecto de código abierto Istio. Cloud Service Mesh funciona colocando un proxy adicional Envoy en cada pod. El proxy de Envoy intercepta todo el tráfico entrante y saliente de los contenedores de la aplicación. Esto significa que server y loadgen tienen un proxy de sidecar de Envoy, y todo el tráfico de loadgen a server está mediado por los proxies de Envoy. Las conexiones entre estos proxies de Envoy forman la malla de servicios. Esta arquitectura de malla de servicios proporciona una capa de control sobre Kubernetes.
Como los proxies de Envoy se ejecutan en sus propios contenedores, puedes instalar Cloud Service Mesh en un clúster de GKE sin tener que hacer cambios sustanciales en el código de tu aplicación. Sin embargo, hay algunas formas clave en las que has preparado la aplicación para instrumentarla con Cloud Service Mesh:
- Servicios de todos los contenedores: tanto la implementación
servercomo laloadgentienen un servicio de Kubernetes asociado. Inclusoloadgen, que no recibe ninguna solicitud entrante, tiene un servicio. - Los puertos de los servicios deben tener un nombre: aunque GKE te permite definir puertos de servicio sin nombre, Cloud Service Mesh requiere que proporciones un nombre para un puerto que coincida con el protocolo del puerto. En el archivo YAML, el puerto de
serverse llamahttpporqueserverusa el protocolo de comunicaciónHTTP. Si elserviceusado esgRPC, el puerto se llamarágrpc. - Los despliegues están etiquetados: esto te permite usar las funciones de gestión del tráfico de Cloud Service Mesh, como dividir el tráfico entre versiones del mismo servicio.
Instalar Cloud Service Mesh
Consulta la guía de instalación de Cloud Service Mesh y sigue las instrucciones para instalar Cloud Service Mesh en tu clúster.