En este instructivo, se muestra cómo crear un flujo de trabajo que usa el conector de la API de Cloud Translation para traducir archivos a otros idiomas en modo de lote asíncrono. Esto proporciona un resultado en tiempo real a medida que se procesan las entradas.
Crea un bucket y archivos de entrada de Cloud Storage
Puedes usar Cloud Storage para almacenar objetos. Los objetos son datos inmutables que constan de un archivo de cualquier formato y se almacenan en contenedores llamados buckets.
Crea un bucket de Cloud Storage para almacenar los archivos que se traducirán:
BUCKET_INPUT=${GOOGLE_CLOUD_PROJECT}-input-files gcloud storage buckets create gs://${BUCKET_INPUT}
Crea dos archivos en inglés y súbelos al bucket de entrada:
echo "Hello World!" > file1.txt gcloud storage cp file1.txt gs://${BUCKET_INPUT} echo "Workflows connectors simplify calling services." > file2.txt gcloud storage cp file2.txt gs://${BUCKET_INPUT}
Implementa y ejecuta el flujo de trabajo
Un flujo de trabajo está compuesto por una serie de pasos descritos con la sintaxis de Workflows, que se pueden escribir en formato YAML o JSON. Esta es la definición del flujo de trabajo. Después de crear un flujo de trabajo, debes implementarlo para que esté disponible para su ejecución.
Crea un archivo de texto con el nombre de archivo
workflow.yaml
y el siguiente contenido:El flujo de trabajo asigna variables, crea un bucket de salida y, luego, inicia la traducción de los archivos y guarda los resultados en el bucket de salida.
Después de crear el flujo de trabajo, impleméntalo:
gcloud workflows deploy batch-translation --source=workflow.yaml
Ejecuta el flujo de trabajo:
gcloud workflows execute batch-translation
Para ver el estado del flujo de trabajo, puedes ejecutar el comando que se devolvió. Por ejemplo:
gcloud workflows executions describe eb4a6239-cffa-4672-81d8-d4caef7d8424 / --workflow batch-translation / --location us-central1
El flujo de trabajo debe ser
ACTIVE
. Después de unos minutos, los archivos traducidos (en francés y español) se subirán al bucket de salida.
Enumera los objetos en el bucket de salida
Para confirmar que el flujo de trabajo funcionó según lo previsto, enumera los objetos en tu bucket de salida.
Recupera el nombre de tu bucket de salida:
gcloud storage ls
El resultado es similar a este:
gs://PROJECT_ID-input-files/ gs://PROJECT_ID-output-files-TIMESTAMP/
Enumera los objetos en tu bucket de salida:
gcloud storage ls gs://PROJECT_ID-output-files-TIMESTAMP/** --recursive
Después de unos minutos, se mostrarán los archivos traducidos, dos de cada uno en francés y español.