Cloud Composer 3 | Cloud Composer 2 | Cloud Composer 1
Apache Airflow ha un'interfaccia API REST che puoi utilizzare per eseguire attività come ottenere informazioni su esecuzioni di DAG e attività, aggiornare DAG, ottenere la configurazione di Airflow, aggiungere ed eliminare connessioni ed elencare utenti.
Per un esempio di utilizzo dell'API REST di Airflow con le funzioni Cloud Run, consulta Attivazione dei DAG con le funzioni Cloud Run.
Versioni dell'API REST Airflow
- Airflow 3 utilizza l'API REST Airflow v2.
- Airflow 2 utilizza l'API REST Airflow v1.
Configura l'API REST Airflow
Airflow 3
Airflow 3 utilizza l'API REST Airflow v2.
Cloud Composer utilizza il proprio backend di autenticazione API.L'autorizzazione funziona nel modo standard fornito da Airflow 3.
Quando un nuovo utente esegue l'autorizzazione tramite l'API, al suo account viene assegnato il ruolo Op
per impostazione predefinita.
L'API REST Airflow in Airflow 3 è sempre abilitata e non è possibile disattivarla. Puoi modificare il ruolo utente predefinito eseguendo l'override della seguente opzione di configurazione di Airflow:
| Sezione | Chiave | Valore | Note |
|---|---|---|---|
api
|
composer_auth_user_registration_role
|
Op
|
Puoi specificare qualsiasi altro ruolo. |
Airflow 2
L'API REST Airflow v1 è abilitata per impostazione predefinita in Airflow 2.
Cloud Composer utilizza il proprio backend di autenticazione API.L'autorizzazione funziona nel modo standard fornito da Airflow. Quando un nuovo utente
autorizza tramite l'API, il suo account riceve per impostazione predefinita il ruolo Op.
Puoi attivare o disattivare l'API REST di Airflow o modificare il ruolo utente predefinito eseguendo l'override delle seguenti opzioni di configurazione di Airflow:
| Sezione | Chiave | Valore | Note |
|---|---|---|---|
api
|
auth_backends
|
airflow.composer.api.backend.composer_auth
|
Per disabilitare l'API REST Airflow, passa a
airflow.api.auth.backend.deny_all |
api
|
composer_auth_user_registration_role
|
Op
|
Puoi specificare qualsiasi altro ruolo. |
Consenti chiamate API all'API REST Airflow utilizzando controllo dell'accesso al server web
A seconda del metodo utilizzato per chiamare l'API REST di Airflow, il metodo del chiamante può utilizzare un indirizzo IPv4 o IPv6. Ricorda di sbloccare il traffico IP verso l'API REST Airflow utilizzando il controllo dell'accesso al server web.
Utilizza l'opzione di configurazione predefinita, ovvero
All IP addresses have access (default), se non sai da quali indirizzi IP
verranno inviate le chiamate all'API REST di Airflow.
Eseguire chiamate all'API REST Airflow
Questa sezione fornisce un esempio di script Python che puoi utilizzare per attivare DAG con l'API REST di Airflow.
Nello script, imposta le seguenti variabili:
dag_id: il nome di un DAG, come definito nel file di origine DAG.dag_config: configurazione per l'esecuzione del DAG.web_server_url: l'URL del server web Airflow. Il formato èhttps://<web-server-id>.composer.googleusercontent.com.(Airflow 3)
logical_date: la data logica per l'esecuzione del DAG.
Airflow 3
"""
Trigger a DAG in Cloud Composer 3 environment with Airflow 3 using the Airflow REST API v2.
"""
from __future__ import annotations
from typing import Any
import google.auth
from google.auth.transport.requests import AuthorizedSession
import requests
# Following best practices, these credentials should be
# constructed at start-up time and used throughout
# https://cloud.google.com/apis/docs/client-libraries-best-practices
AUTH_SCOPE = "https://www.googleapis.com/auth/cloud-platform"
CREDENTIALS, _ = google.auth.default(scopes=[AUTH_SCOPE])
def make_composer3_web_server_request(
url: str, method: str = "GET", **kwargs: Any
) -> google.auth.transport.Response:
"""
Make a request to Cloud Composer 3 environment's web server with Airflow 3.
Args:
url: The URL to fetch.
method: The request method to use ('GET', 'OPTIONS', 'HEAD', 'POST', 'PUT',
'PATCH', 'DELETE')
**kwargs: Any of the parameters defined for the request function:
https://github.com/requests/requests/blob/master/requests/api.py
If no timeout is provided, it is set to 90 by default.
"""
authed_session = AuthorizedSession(CREDENTIALS)
# Set the default timeout, if missing
if "timeout" not in kwargs:
kwargs["timeout"] = 90
return authed_session.request(method, url, **kwargs)
def trigger_dag(web_server_url: str, dag_id: str, data: dict, logical_date: str) -> str:
"""
Make a request to trigger a DAG using the Airflow REST API v2.
https://airflow.apache.org/docs/apache-airflow/stable/stable-rest-api-ref.html
Args:
web_server_url: The URL of the Airflow 3 web server.
dag_id: The DAG ID.
data: Additional configuration parameters for the DAG run (json).
"""
endpoint = f"api/v2/dags/{dag_id}/dagRuns"
request_url = f"{web_server_url}/{endpoint}"
json_data = {"conf": data, "logical_date": logical_date}
response = make_composer3_web_server_request(
request_url, method="POST", json=json_data
)
if response.status_code == 403:
raise requests.HTTPError(
"You do not have a permission to perform this operation. "
"Check Airflow RBAC roles for your account."
f"{response.headers} / {response.text}"
)
elif response.status_code != 200:
response.raise_for_status()
else:
return response.text
if __name__ == "__main__":
# TODO(developer): replace with your values
dag_id = "airflow_monitoring" # Replace with the ID of the DAG that you want to run.
dag_config = {
"your-key": "your-value"
} # Replace with configuration parameters for the DAG run.
# Replace web_server_url with the Airflow web server address. To obtain this
# URL, run the following command for your environment:
# gcloud composer environments describe example-environment \
# --location=your-composer-region \
# --format="value(config.airflowUri)"
logical_date = "2025-01-01T14:00:00Z" # Replace with the data interval for which to run the DAG
web_server_url = (
"https://example-airflow-ui-url-dot-us-central1.composer-staging.googleusercontent.com"
)
response_text = trigger_dag(
web_server_url=web_server_url, dag_id=dag_id, data=dag_config, logical_date=logical_date
)
print(response_text)
Airflow 2
Accedere all'API REST di Airflow utilizzando un account di servizio
Il database Airflow nelle versioni precedenti alla 2.3.0 limita la lunghezza del campo email a 64 caratteri. A volte gli account di servizio hanno indirizzi email più lunghi di 64 caratteri. Non è possibile creare utenti Airflow per questi service account nel solito modo. Se non esiste un utente Airflow per questoaccount di serviziot, l'accesso all'API REST di Airflow genera errori HTTP 401 e 403.
Come soluzione alternativa, puoi preregistrare un utente Airflow per un account di servizio. Per
farlo, utilizza accounts.google.com:NUMERIC_USER_ID come nome utente e una stringa
univoca come email.
Per ottenere
NUMERIC_USER_IDper un account di servizio, esegui:gcloud iam service-accounts describe \ SA_NAME@PROJECT_ID.iam.gserviceaccount.com \ --format="value(oauth2ClientId)"Sostituisci:
SA_NAMEcon il nome del account di servizio.PROJECT_IDcon l'ID progetto.
Crea un utente Airflow con il ruolo
Opper il account di servizio:UI di Airflow
Vai a Sicurezza > Elenca utenti e fai clic su Aggiungi un nuovo record. L'utente Airflow deve disporre del ruolo
Adminper aprire questa pagina.Specifica
accounts.google.com:NUMERIC_USER_IDcome nome utente. SostituisciNUMERIC_USER_IDcon l'ID utente ottenuto nel passaggio precedente.Specifica un identificatore univoco come email. Puoi utilizzare qualsiasi stringa univoca.
Specifica il ruolo per l'utente. Ad esempio,
Op.Assicurati che la casella di controllo È attivo? sia selezionata.
Specifica il nome e il cognome dell'utente. Puoi utilizzare qualsiasi stringa.
Fai clic su Salva.
gcloud
Esegui questo comando della CLI di Airflow:
gcloud composer environments run ENVIRONMENT_NAME \ --location LOCATION \ users create -- \ -u accounts.google.com:NUMERIC_USER_ID \ -e UNIQUE_ID \ -f UNIQUE_ID \ -l - -r Op --use-random-passwordSostituisci:
ENVIRONMENT_NAMEcon il nome dell'ambiente.LOCATIONcon la regione in cui si trova l'ambiente.NUMERIC_USER_IDcon l'ID utente ottenuto nel passaggio precedente.UNIQUE_IDcon l'identificatore dell'utente Airflow. Puoi utilizzare qualsiasi stringa univoca.
Dopo aver creato un utente Airflow per un account di servizio, un chiamante autenticato comeaccount di serviziot viene riconosciuto come utente preregistrato e accede ad Airflow.
Scalare il componente API REST Airflow
Gli endpoint dell'API REST Airflow e della UI di Airflow vengono eseguiti all'interno del server web Airflow. Se utilizzi l'API REST in modo intensivo, valuta la possibilità di aumentare la quantità di CPU e memoria disponibile per il server web Airflow in base al carico previsto.