Accéder à l'API REST Airflow

Cloud Composer 3 | Cloud Composer 2 | Cloud Composer 1

Apache Airflow dispose d'une interface d'API REST qui vous permet d'effectuer des tâches telles que l'obtention d'informations sur les exécutions et les tâches DAG, la mise à jour des DAG, l'obtention de la configuration Airflow, l'ajout et la suppression de connexions et la création de listes d'utilisateurs.

Pour obtenir un exemple d'utilisation de l'API REST Airflow avec Cloud Run Functions, consultez la page Déclencher des DAG avec Cloud Run Functions.

Versions de l'API REST Airflow

Configurer l'API REST Airflow

Airflow 3

Airflow 3 utilise l'API REST Airflow v2.

Cloud Composer utilise son propre backend d'authentification d'API.

L'autorisation fonctionne de la manière standard fournie par Airflow 3. Lorsqu'un nouvel utilisateur accorde des autorisations via l'API, le compte de l'utilisateur obtient le rôle Op par défaut.

L'API REST Airflow dans Airflow 3 est toujours activée et il n'est pas possible de la désactiver. Vous pouvez modifier le rôle utilisateur par défaut en remplaçant l'option de configuration Airflow suivante :

Section Clé Valeur Remarques
api composer_auth_user_registration_role Op Vous pouvez spécifier n'importe quel autre rôle.

Airflow 2

L'API REST Airflow v1 est activée par défaut dans Airflow 2.

Cloud Composer utilise son propre backend d'authentification d'API.

L'autorisation fonctionne de la manière standard fournie par Airflow. Lorsqu'un nouvel utilisateur accorde des autorisations via l'API, le compte de l'utilisateur obtient le rôle Op par défaut.

Vous pouvez activer ou désactiver l'API REST Airflow, ou modifier le rôle utilisateur par défaut en remplaçant les options de configuration Airflow suivantes :

Section Clé Valeur Remarques
api auth_backends airflow.composer.api.backend.composer_auth Pour désactiver l'API REST Airflow, définissez sur airflow.api.auth.backend.deny_all
api composer_auth_user_registration_role Op Vous pouvez spécifier n'importe quel autre rôle.

Autoriser les appels d'API vers l'API REST Airflow à l'aide du contrôle des accès au serveur Web

Selon la méthode utilisée pour appeler l'API REST Airflow, la méthode d'appelant peut utiliser une adresse IPv4 ou IPv6. N'oubliez pas de débloquer le trafic IP vers l'API REST Airflow à l'aide du contrôle de l'accès au serveur Web.

Utilisez l'option de configuration par défaut All IP addresses have access (default) si vous ne savez pas à partir de quelles adresses IP vos appels à l'API REST Airflow seront envoyés.

Effectuer des appels vers l'API REST Airflow

Cette section fournit un exemple de script Python que vous pouvez utiliser pour déclencher des DAG avec l'API REST Airflow.

Dans le script, définissez les variables suivantes :

  • dag_id : nom d'un DAG, tel qu'il est défini dans le fichier source du DAG.
  • dag_config : configuration de l'exécution du DAG.
  • web_server_url : URL de votre serveur Web Airflow. Il a le format suivant : https://<web-server-id>.composer.googleusercontent.com.

  • (Airflow 3) logical_date : date logique de l'exécution du DAG.

Airflow 3

"""
Trigger a DAG in Cloud Composer 3 environment with Airflow 3 using the Airflow REST API v2.
"""

from __future__ import annotations

from typing import Any

import google.auth
from google.auth.transport.requests import AuthorizedSession
import requests

# Following best practices, these credentials should be
# constructed at start-up time and used throughout
# https://cloud.google.com/apis/docs/client-libraries-best-practices
AUTH_SCOPE = "https://www.googleapis.com/auth/cloud-platform"
CREDENTIALS, _ = google.auth.default(scopes=[AUTH_SCOPE])

def make_composer3_web_server_request(
    url: str, method: str = "GET", **kwargs: Any
) -> google.auth.transport.Response:
    """
    Make a request to Cloud Composer 3 environment's web server with Airflow 3.
    Args:
      url: The URL to fetch.
      method: The request method to use ('GET', 'OPTIONS', 'HEAD', 'POST', 'PUT',
        'PATCH', 'DELETE')
      **kwargs: Any of the parameters defined for the request function:
                https://github.com/requests/requests/blob/master/requests/api.py
                  If no timeout is provided, it is set to 90 by default.
    """

    authed_session = AuthorizedSession(CREDENTIALS)

    # Set the default timeout, if missing
    if "timeout" not in kwargs:
        kwargs["timeout"] = 90

    return authed_session.request(method, url, **kwargs)

def trigger_dag(web_server_url: str, dag_id: str, data: dict, logical_date: str) -> str:
    """
    Make a request to trigger a DAG using the Airflow REST API v2.
    https://airflow.apache.org/docs/apache-airflow/stable/stable-rest-api-ref.html

    Args:
      web_server_url: The URL of the Airflow 3 web server.
      dag_id: The DAG ID.
      data: Additional configuration parameters for the DAG run (json).
    """

    endpoint = f"api/v2/dags/{dag_id}/dagRuns"
    request_url = f"{web_server_url}/{endpoint}"
    json_data = {"conf": data, "logical_date": logical_date}

    response = make_composer3_web_server_request(
        request_url, method="POST", json=json_data
    )

    if response.status_code == 403:
        raise requests.HTTPError(
            "You do not have a permission to perform this operation. "
            "Check Airflow RBAC roles for your account."
            f"{response.headers} / {response.text}"
        )
    elif response.status_code != 200:
        response.raise_for_status()
    else:
        return response.text

if __name__ == "__main__":
    # TODO(developer): replace with your values
    dag_id = "airflow_monitoring"  # Replace with the ID of the DAG that you want to run.
    dag_config = {
        "your-key": "your-value"
    }  # Replace with configuration parameters for the DAG run.
    # Replace web_server_url with the Airflow web server address. To obtain this
    # URL, run the following command for your environment:
    # gcloud composer environments describe example-environment \
    #  --location=your-composer-region \
    #  --format="value(config.airflowUri)"
    logical_date = "2025-01-01T14:00:00Z" # Replace with the data interval for which to run the DAG
    web_server_url = (
        "https://example-airflow-ui-url-dot-us-central1.composer-staging.googleusercontent.com"
    )

    response_text = trigger_dag(
        web_server_url=web_server_url, dag_id=dag_id, data=dag_config, logical_date=logical_date
    )

    print(response_text)

Airflow 2

from __future__ import annotations

from typing import Any

import google.auth
from google.auth.transport.requests import AuthorizedSession
import requests


# Following GCP best practices, these credentials should be
# constructed at start-up time and used throughout
# https://cloud.google.com/apis/docs/client-libraries-best-practices
AUTH_SCOPE = "https://www.googleapis.com/auth/cloud-platform"
CREDENTIALS, _ = google.auth.default(scopes=[AUTH_SCOPE])


def make_composer2_web_server_request(
    url: str, method: str = "GET", **kwargs: Any
) -> google.auth.transport.Response:
    """
    Make a request to Cloud Composer 2 environment's web server.
    Args:
      url: The URL to fetch.
      method: The request method to use ('GET', 'OPTIONS', 'HEAD', 'POST', 'PUT',
        'PATCH', 'DELETE')
      **kwargs: Any of the parameters defined for the request function:
                https://github.com/requests/requests/blob/master/requests/api.py
                  If no timeout is provided, it is set to 90 by default.
    """

    authed_session = AuthorizedSession(CREDENTIALS)

    # Set the default timeout, if missing
    if "timeout" not in kwargs:
        kwargs["timeout"] = 90

    return authed_session.request(method, url, **kwargs)


def trigger_dag(web_server_url: str, dag_id: str, data: dict) -> str:
    """
    Make a request to trigger a dag using the stable Airflow 2 REST API.
    https://airflow.apache.org/docs/apache-airflow/stable/stable-rest-api-ref.html

    Args:
      web_server_url: The URL of the Airflow 2 web server.
      dag_id: The DAG ID.
      data: Additional configuration parameters for the DAG run (json).
    """

    endpoint = f"api/v1/dags/{dag_id}/dagRuns"
    request_url = f"{web_server_url}/{endpoint}"
    json_data = {"conf": data}

    response = make_composer2_web_server_request(
        request_url, method="POST", json=json_data
    )

    if response.status_code == 403:
        raise requests.HTTPError(
            "You do not have a permission to perform this operation. "
            "Check Airflow RBAC roles for your account."
            f"{response.headers} / {response.text}"
        )
    elif response.status_code != 200:
        response.raise_for_status()
    else:
        return response.text




if __name__ == "__main__":
    # TODO(developer): replace with your values
    dag_id = "your-dag-id"  # Replace with the ID of the DAG that you want to run.
    dag_config = {
        "your-key": "your-value"
    }  # Replace with configuration parameters for the DAG run.
    # Replace web_server_url with the Airflow web server address. To obtain this
    # URL, run the following command for your environment:
    # gcloud composer environments describe example-environment \
    #  --location=your-composer-region \
    #  --format="value(config.airflowUri)"
    web_server_url = (
        "https://example-airflow-ui-url-dot-us-central1.composer.googleusercontent.com"
    )

    response_text = trigger_dag(
        web_server_url=web_server_url, dag_id=dag_id, data=dag_config
    )

    print(response_text)

Accéder à l'API REST Airflow à l'aide d'un compte de service

Dans les versions d'Airflow antérieures à la version 2.3.0, la base de données Airflow limite la longueur du champ "Adresse e-mail" à 64 caractères. Les comptes de service ont parfois des adresses e-mail de plus de 64 caractères. Il n'est pas possible de créer des utilisateurs Airflow pour ces comptes de service de la manière habituelle. S'il n'existe aucun utilisateur Airflow pour un tel compte de service, l'accès à l'API REST Airflow génère des erreurs HTTP 401 et 403.

Pour contourner ce problème, vous pouvez préenregistrer un utilisateur Airflow pour un compte de service. Pour ce faire, utilisez accounts.google.com:NUMERIC_USER_ID comme nom d'utilisateur et n'importe quelle chaîne unique comme adresse e-mail.

  1. Pour obtenir NUMERIC_USER_ID pour un compte de service, exécutez la commande suivante :

    gcloud iam service-accounts describe \
      SA_NAME@PROJECT_ID.iam.gserviceaccount.com \
      --format="value(oauth2ClientId)"
    

    Remplacez :

    • SA_NAME par le nom du compte de service
    • PROJECT_ID par l'ID du projet.
  2. Créez un utilisateur Airflow doté du rôle Op pour le compte de service :

    Interface utilisateur d'Airflow

    1. Accédez à l'interface utilisateur d'Airflow.

    2. Accédez à Sécurité > Répertorier les utilisateurs, puis cliquez sur Ajouter un enregistrement. Votre utilisateur Airflow doit disposer du rôle Admin pour ouvrir cette page.

    3. Spécifiez accounts.google.com:NUMERIC_USER_ID comme nom d'utilisateur. Remplacez NUMERIC_USER_ID par l'ID utilisateur obtenu à l'étape précédente.

    4. Spécifiez un identifiant unique comme adresse e-mail. Vous pouvez utiliser n'importe quelle chaîne unique.

    5. Spécifiez le rôle de l'utilisateur. Par exemple, Op.

    6. Assurez-vous que la case Is Active? (Actif ?) est cochée.

    7. Spécifiez le prénom et le nom de l'utilisateur. Vous pouvez utiliser n'importe quelle chaîne.

    8. Cliquez sur Enregistrer.

    gcloud

    Exécutez la commande de CLI Airflow suivante :

    gcloud composer environments run ENVIRONMENT_NAME \
        --location LOCATION \
        users create -- \
        -u accounts.google.com:NUMERIC_USER_ID \
        -e UNIQUE_ID  \
        -f UNIQUE_ID \
        -l - -r Op --use-random-password
    

    Remplacez :

    • ENVIRONMENT_NAME par le nom de l'environnement.
    • LOCATION par la région dans laquelle se trouve l'environnement.
    • NUMERIC_USER_ID par l'ID utilisateur obtenu à l'étape précédente.
    • UNIQUE_ID par l'identifiant de l'utilisateur Airflow. Vous pouvez utiliser n'importe quelle chaîne unique.
  3. Une fois que vous avez créé un utilisateur Airflow pour un compte de service, un appelant authentifié en tant que compte de service est reconnu comme utilisateur préenregistré et est connecté à Airflow.

Scaling du composant de l'API REST Airflow

Les points de terminaison de l'API REST Airflow et de l'UI Airflow sont exécutés sur le serveur Web Airflow. Si vous utilisez intensivement l'API REST, envisagez d'augmenter la quantité de processeur et de mémoire disponibles pour le serveur Web Airflow, en fonction de la charge attendue.

Étapes suivantes