Ce tutoriel explique comment créer un workflow qui utilise le connecteur d'API Cloud Translation pour traduire des fichiers dans d'autres langues en mode de traitement par lot asynchrone. Cette méthode fournit une sortie en temps réel, au fur et à mesure du traitement des entrées.
Créer un bucket et des fichiers Cloud Storage d'entrée
Vous pouvez utiliser Cloud Storage pour stocker des objets. Les objets sont des données immuables. Ils sont constitués d'un fichier dans n'importe quel format et stockés dans des conteneurs appelés "buckets".
Créez un bucket Cloud Storage pour stocker les fichiers à traduire :
BUCKET_INPUT=${GOOGLE_CLOUD_PROJECT}-input-files gcloud storage buckets create gs://${BUCKET_INPUT}
Créez deux fichiers en anglais et importez-les dans le bucket d'entrée :
echo "Hello World!" > file1.txt gcloud storage cp file1.txt gs://${BUCKET_INPUT} echo "Workflows connectors simplify calling services." > file2.txt gcloud storage cp file2.txt gs://${BUCKET_INPUT}
Déployer et exécuter le workflow
Un workflow est constitué d'une série d'étapes décrites à l'aide de la syntaxe Workflows, qui peut être écrite au format YAML ou JSON. Il s'agit de la définition du workflow. Après avoir créé un workflow, vous pouvez le déployer pour le rendre disponible en exécution.
Créez un fichier texte avec le nom de fichier
workflow.yaml
et le contenu suivant :Le workflow attribue des variables, crée un bucket de sortie et lance la traduction des fichiers, en enregistrant les résultats dans le bucket de sortie.
Une fois le workflow créé, déployez-le :
gcloud workflows deploy batch-translation --source=workflow.yaml
Exécutez le workflow :
gcloud workflows execute batch-translation
Pour afficher l'état du workflow, vous pouvez exécuter la commande renvoyée. Exemple :
gcloud workflows executions describe eb4a6239-cffa-4672-81d8-d4caef7d8424 / --workflow batch-translation / --location us-central1
Le workflow doit être
ACTIVE
. Après quelques minutes, les fichiers traduits (en français et en espagnol) sont importés dans le bucket de sortie.
Lister les objets du bucket de sortie
Vous pouvez vérifier que le workflow a fonctionné comme prévu en listant les objets dans votre bucket de sortie.
Récupérez le nom de votre bucket de sortie :
gcloud storage ls
Le résultat ressemble à ce qui suit :
gs://PROJECT_ID-input-files/ gs://PROJECT_ID-output-files-TIMESTAMP/
Listez les objets d'un bucket :
gcloud storage ls gs://PROJECT_ID-output-files-TIMESTAMP/** --recursive
Après quelques minutes, les fichiers traduits, deux de chaque en français et en espagnol, sont listés.