Consigner manuellement des métriques avec Vertex AI Experiments

Les métriques de séries temporelles TensorBoard peuvent être consignées manuellement avec une exécution de Vertex AI Experiments. Ces métriques sont visualisées dans la console Vertex AI Experiments ou dans votre application Web de test Vertex AI TensorBoard.

Pour en savoir plus sur les métriques et les paramètres de journalisation, consultez Consigner manuellement des données dans une exécution de test.

Python

from typing import Dict, Optional

from google.cloud import aiplatform
from google.protobuf import timestamp_pb2


def log_time_series_metrics_sample(
    experiment_name: str,
    run_name: str,
    metrics: Dict[str, float],
    step: Optional[int],
    wall_time: Optional[timestamp_pb2.Timestamp],
    project: str,
    location: str,
):
    aiplatform.init(experiment=experiment_name, project=project, location=location)

    aiplatform.start_run(run=run_name, resume=True)

    aiplatform.log_time_series_metrics(metrics=metrics, step=step, wall_time=wall_time)

  • experiment_name : attribuez un nom à votre test.
  • run_name : indiquez un nom d'exécution.
  • metrics : dictionnaire où les clés sont les noms des métriques, et les valeurs sont les valeurs des métriques.
  • step (facultatif) : Index des étapes de ce point de données dans l'exécution.
  • wall_time (facultatif) : code temporel de la durée d'exécution lorsque ce point de données est généré par l'utilisateur final. Si aucune valeur n'est fournie, wall_time est généré en fonction de la valeur de time.time().
  • project : . Vous pouvez trouver cet ID sur la page d'accueil de la console Google Cloud .
  • location : emplacement de votre test et de votre instance TensorBoard. Si le test ou l'instance TensorBoard n'existent pas déjà, ils seront créés à cet emplacement.