En este documento se explica cómo mejorar la seguridad y la gestión de tu clúster de Kubernetes aislando las cargas de trabajo de los contenedores en grupos de nodos dedicados en Google Distributed Cloud (GDC) air-gapped. Aislar tus cargas de trabajo te da más control sobre tus pods y reduce el riesgo de ataques de escalada de privilegios en tu clúster de Kubernetes. Para obtener más información sobre las ventajas y las limitaciones de los grupos de nodos dedicados, consulta el artículo Descripción general del aislamiento de nodos.
Hay varios flujos de trabajo relacionados con el aislamiento de las cargas de trabajo de los contenedores, entre los que se incluyen los siguientes:
Contaminar y etiquetar un grupo de nodos: aplica una contaminación y una etiqueta a un grupo de nodos para que rechace los pods, a menos que estén etiquetados específicamente para ejecutarse en él.
Añadir una tolerancia y una regla de afinidad de nodo: aplica tolerancias y reglas a tus pods para obligarlos a ejecutarse solo en el grupo de nodos designado.
Verifica que la separación funciona: confirma que tus grupos de nodos contaminados solo ejecutan los pods que has etiquetado para que se ejecuten allí.
Estos flujos de trabajo están dirigidos a audiencias como los administradores de TI del grupo de administradores de la plataforma, que se encargan de gestionar los grupos de nodos de un clúster de Kubernetes, y los desarrolladores de aplicaciones del grupo de operadores de aplicaciones, que se encargan de gestionar las cargas de trabajo de los contenedores. Para obtener más información, consulta Audiencias de la documentación aislada de GDC.
Antes de empezar
Antes de empezar, asegúrate de haber realizado las siguientes tareas:
Elige un nombre específico para el taint y la etiqueta de nodo que quieras usar en los grupos de nodos dedicados. Por ejemplo,
workloadType=untrusted
.Si es necesario, pide al administrador de gestión de identidades y accesos de tu organización que te conceda el rol Desarrollador de clústeres de usuarios (
user-cluster-developer
), que no está vinculado a un espacio de nombres.
Etiquetar y aplicar un taint a un nuevo grupo de nodos
Cuando apliques un taint o una etiqueta a un nuevo grupo de nodos, todos los nodos, incluidos los que se añadan más adelante, recibirán automáticamente los taints y las etiquetas especificados.
Para añadir un taint y una etiqueta a un nuevo grupo de nodos, sigue estos pasos:
Edita la sección
nodePools
del recurso personalizadoCluster
directamente al crear el grupo de nodos:nodePools: # Several lines of code are omitted here. - machineTypeName: n2-standard-2-gdc name: nodepool-1 nodeCount: 3 taints: - key: "TAINT_KEY" value: "TAINT_VALUE" effect: "TAINT_EFFECT" labels: LABEL_KEY: LABEL_VALUE
Haz los cambios siguientes:
TAINT_KEY
: la parte de la clave de contaminación del par clave-valor asociado a una programaciónTAINT_EFFECT
. Por ejemplo,workloadType
.TAINT_VALUE
: la parte del valor de contaminación del par clave-valor asociado a una programaciónTAINT_EFFECT
. Por ejemplo,untrusted
.TAINT_EFFECT
: uno de los siguientes valores de efecto:NoSchedule
: los pods que no toleran esta intolerancia no se programan en el nodo. Los pods que ya están en el nodo no se expulsan.PreferNoSchedule
: Kubernetes evita programar pods que no toleren esta marca en el nodo.NoExecute
: el pod se expulsa del nodo si ya se está ejecutando en él y no se programa en el nodo si aún no se está ejecutando en él.
LABEL_KEY: LABEL_VALUE
: los pares clave-valor de las etiquetas de nodo, que corresponden a los selectores que especifiques en los manifiestos de tu carga de trabajo.
Aplica el recurso
Cluster
para crear el grupo de nodos:kubectl apply -f cluster.yaml --kubeconfig MANAGEMENT_API_SERVER
Sustituye
MANAGEMENT_API_SERVER
por la ruta de kubeconfig del servidor de la API zonal donde se aloja el clúster de Kubernetes. Si aún no has generado un archivo kubeconfig para el servidor de la API en la zona de destino, consulta Recursos del servidor de la API de gestión zonal para obtener más información.
Aplicar un taint y una etiqueta a un grupo de nodos
Para aplicar un taint o una etiqueta a un grupo de nodos, debes aplicar los cambios a cada nodo. No puedes actualizar dinámicamente las configuraciones de los grupos de nodos.
Para añadir un taint y una etiqueta a un grupo de nodos, sigue estos pasos:
Lista los nodos del grupo de nodos dedicado:
kubectl get node --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG \ -l baremetal.cluster.gke.io/node-pool=NODE_POOL_NAME
Sustituye las siguientes variables:
KUBERNETES_CLUSTER_KUBECONFIG
: la ruta de kubeconfig del clúster de Kubernetes.NODE_POOL_NAME
: el nombre de tu grupo de nodos dedicado.
Anota el ID de cada nodo del grupo de nodos en la salida.
Aplica los taints a cada nodo del grupo de nodos:
kubectl taint nodes NODE_ID \ TAINT_KEY=TAINT_VALUE:TAINT_EFFECT \ --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG
Sustituye las siguientes variables:
NODE_ID
: el ID del nodo de trabajador del grupo de nodos dedicado.TAINT_KEY=TAINT_VALUE
: un par clave-valor asociado a una programaciónTAINT_EFFECT
. Por ejemplo,workloadType=untrusted
.TAINT_EFFECT
: uno de los siguientes valores de efecto:NoSchedule
: los pods que no toleran esta intolerancia no se programan en el nodo. Los pods que ya están en el nodo no se expulsan.PreferNoSchedule
: Kubernetes evita programar pods que no toleren esta marca en el nodo.NoExecute
: el pod se expulsa del nodo si ya se está ejecutando en él y no se programa en el nodo si aún no se está ejecutando en él.
KUBERNETES_CLUSTER_KUBECONFIG
: la ruta de kubeconfig del clúster de Kubernetes.
En cada nodo del grupo de nodos, aplique las etiquetas que correspondan a los selectores que definirá en sus cargas de trabajo de contenedor:
kubectl label NODE_ID \ LABEL_KEY:LABEL_VALUE \ --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG
Sustituye las siguientes variables:
NODE_ID
: el ID del nodo de trabajador del grupo de nodos dedicado.LABEL_KEY:LABEL_VALUE
: los pares clave-valor de las etiquetas de nodo, que corresponden a los selectores que especifiques en los manifiestos de tu carga de trabajo.KUBERNETES_CLUSTER_KUBECONFIG
: la ruta de kubeconfig del clúster de Kubernetes.
Añadir una tolerancia y una regla de afinidad de nodo
Después de aplicar un taint al grupo de nodos dedicado, no se podrá programar ninguna carga de trabajo en él a menos que tenga una tolerancia correspondiente al taint que hayas añadido. Añade la tolerancia a la especificación de tus cargas de trabajo para que esos pods se programen en tu grupo de nodos con intolerancias.
Si has etiquetado el grupo de nodos dedicado, también puedes añadir una regla de afinidad de nodos para indicar a GDC que solo programe tus cargas de trabajo en ese grupo de nodos.
Para configurar la carga de trabajo del contenedor de forma que se ejecute en el grupo de nodos dedicado, sigue estos pasos:
Añade las siguientes secciones a la sección
.spec.template.spec
del archivo de manifiesto de la carga de trabajo del contenedor, como un recurso personalizadoDeployment
:# Several lines of code are omitted here. spec: template: spec: tolerations: - key: TAINT_KEY operator: Equal value: TAINT_VALUE effect: TAINT_EFFECT affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: LABEL_KEY operator: In values: - "LABEL_VALUE" # Several lines of code are omitted here.
Haz los cambios siguientes:
TAINT_KEY
: la clave de taint que has aplicado a tu grupo de nodos dedicado.TAINT_VALUE
: el valor de taint que has aplicado a tu grupo de nodos dedicado.TAINT_EFFECT
: uno de los siguientes valores de efecto:NoSchedule
: los pods que no toleran esta intolerancia no se programan en el nodo. Los pods que ya están en el nodo no se expulsan.PreferNoSchedule
: Kubernetes evita programar pods que no toleren esta marca en el nodo.NoExecute
: el pod se expulsa del nodo si ya se está ejecutando en él y no se programa en el nodo si aún no se está ejecutando en él.
LABEL_KEY
: la clave de la etiqueta de nodo que has aplicado a tu grupo de nodos dedicado.LABEL_VALUE
: el valor de la etiqueta de nodo que has aplicado a tu grupo de nodos dedicados.
Por ejemplo, el siguiente recurso
Deployment
añade una tolerancia para el taintworkloadType=untrusted:NoExecute
y una regla de afinidad de nodo para la etiqueta de nodoworkloadType=untrusted
:kind: Deployment apiVersion: apps/v1 metadata: name: my-app namespace: default labels: app: my-app spec: replicas: 1 selector: matchLabels: app: my-app template: metadata: labels: app: my-app spec: tolerations: - key: workloadType operator: Equal value: untrusted effect: NoExecute affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: workloadType operator: In values: - "untrusted" containers: - name: my-app image: harbor-1.org-1.zone1.google.gdc.test/harborproject/my-app ports: - containerPort: 80 imagePullSecrets: - name: SECRET
Actualiza la carga de trabajo del contenedor:
kubectl apply -f deployment.yaml -n NAMESPACE \ --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG
Sustituye las siguientes variables:
NAMESPACE
: el espacio de nombres del proyecto de tu carga de trabajo del contenedor.KUBERNETES_CLUSTER_KUBECONFIG
: la ruta de kubeconfig del clúster de Kubernetes.
GDC vuelve a crear los pods afectados. La regla de afinidad de nodo fuerza a los pods a usar el grupo de nodos dedicado que has creado. La tolerancia permite que solo esos pods se coloquen en los nodos.
Verificar que la separación funciona
Verifica que los pods que has designado se estén ejecutando en el pool de nodos etiquetado.
Lista los pods del espacio de nombres indicado:
kubectl get pods -o=wide -n NAMESPACE \ --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG
Sustituye las siguientes variables:
NAMESPACE
: el espacio de nombres del proyecto de tu carga de trabajo del contenedor.KUBERNETES_CLUSTER_KUBECONFIG
: la ruta de kubeconfig del clúster de Kubernetes.
El resultado es similar al siguiente:
pod/kube-abc-12tyuj pod/kube-abc-39oplef pod/kube-abc-95rzkap
Confirma que tus cargas de trabajo se están ejecutando en el grupo de nodos dedicado.
Siguientes pasos
- Cargas de trabajo de contenedores en GDC
- Desplegar una aplicación en contenedor de alta disponibilidad
- Cargas de trabajo de Kubernetes para alta disponibilidad