Damit ein Modell nachverfolgt, gemeinsam genutzt und analysiert werden kann, bietet das
Vertex AI SDK für Python eine API, die ein Modell für maschinelles Lernen
in eine ExperimentModel-Klasse serialisiert und das Modell in Vertex AI Experiments protokolliert.
Nachdem Sie das beste Modell ausgewählt haben, können Sie dieses Modell von Vertex AI Experiments in Vertex AI Model Registry registrieren.
Unterstützte Frameworks sind scikit-learn, XGBoost und TensorFlow.
ML-Modell speichern und protokollieren
Modelle speichern
Das Vertex AI SDK bietet die
save_model
Methode zur Serialisierung eines ML-Modells,
zum Hochladen des Modells in Cloud Storage und zur Darstellung des Modells als
Vertex ML Metadata
Artefakts.
Python
project: . Sie finden diese IDs auf der Google Cloud Console Begrüßungsseite.location: Siehe Liste der verfügbaren Standortemodel: (Erforderlich). Ein Modell für maschinelles Lernen.(Union["sklearn.base.BaseEstimator", "xgb.Booster", "tf.Module"])artifact_id: Optional. Die Ressourcen-ID des Artefakts. Diese ID muss in einem Metadatenspeicher global eindeutig sein. Sie kann bis zu 63 Zeichen umfassen und gültige Zeichen sind[a-z0-9_-]. Das erste Zeichen darf keine Zahl und kein Bindestrich sein.uri: Optional. Ein GCS-Verzeichnis, in dem die Modelldatei gespeichert wird. Wenn kein URI angegeben ist, wirdgs://default-bucket/timestamp-uuid-frameworkName-modelverwendet. Wenn kein Standard-Staging-Bucket festgelegt ist, muss er im Parameterstaging_bucketübergeben werden.input_example: : Optional. Jedes Modell übernimmt Eingabedaten und erstellt dann eine Vorhersage. Jedes Modell akzeptiert ein bestimmtes Format der Eingabe (z. B. eine Zahl, einen String oder ein 2d-Array) und wird als yaml-Datei im gcs-URI gespeichert. Akzeptiert eine Liste, ein Wörterbuch, ein pd.DataFrame oder ein np.ndarray. Der Wert in einer Liste muss ein Skalar oder eine Liste sein. Der Wert in einem Wörterbuch muss ein Skalar-, eine Listen- oder ein np.ndarray sein.(Union[list, dict, pd.DataFrame, np.ndarray]).display_name: Der Anzeigename des Artefakts.staging_bucket: : Optional. Der Staging-Bucket, in dem das Modell gespeichert wird. Wenn nicht angegeben, wird der inaiplatform.initfestgelegte Staging-Bucket verwendet. Zum Speichern eines Modells ist ein Staging Bucket oder ein URI erforderlich.
Logmodelle
Das Vertex AI SDK bietet eine Methode log_model, die save_model orchestriert, und einen zusätzlichen Schritt, um das Vertex ML Metadata-Artefakt in der aktuellen Testausführung zu protokollieren. Die Methode log_model zum Verwalten und
Analysieren mehrerer ML-Modelle in Vertex AI Experiments.
Python
experiment_name: Geben Sie den Namen Ihres Tests an. Sie finden die Liste der Tests in der Google Cloud Console, indem Sie im Bereich "Navigation" die Option "Tests" auswählen.run_name: Geben Sie einen Ausführungsnamen an.project: . Sie finden diese IDs auf der Google Cloud Console Begrüßungsseite.location: Siehe Liste der verfügbaren Standorte.model: erforderlich. Ein Modell für maschinelles Lernen.(Union["sklearn.base.BaseEstimator", "xgb.Booster", "tf.Module"])uri: Optional. Ein GCS-Verzeichnis, in dem die Modelldatei gespeichert wird. Wenn kein URI angegeben ist, wirdgs://default-bucket/timestamp-uuid-frameworkName-modelverwendet. Wenn kein Standard-Staging-Bucket festgelegt ist, wird ein neuer Bucket erstellt.input_example: Optional. Jedes Modell übernimmt Eingabedaten und erstellt dann eine Vorhersage. Jedes Modell akzeptiert ein bestimmtes Eingabeformat (z. B. eine Zahl, einen String oder ein 2d-Array) und wird als yaml-Datei im gcs-URI gespeichert. Akzeptiert eine Liste, ein Wörterbuch, ein pd.DataFrame oder ein np.ndarray. Der Wert in einer Liste muss ein Skalar oder eine Liste sein. Der Wert in einem Wörterbuch muss ein Skalar-, eine Listen- oder ein np.ndarray sein.(Union[list, dict, pd.DataFrame, np.ndarray]).display_name: Optional. Der Anzeigename des Artefakts.
ExperimentModel nachverfolgen
Testmodell abrufen
Um get_experiment_model
zu verwenden, um ein gespeichertes Modell zurückzugeben, übergeben Sie die Artefakt-ID des gespeicherten Modells.
Python
project: . Sie finden diese IDs auf der Google Cloud Console Begrüßungsseite.location: Siehe Liste der verfügbaren Standorte.artifact_id: Erforderlich: Die Ressourcen-ID des vorhandenen Modells.
Testmodelle abrufen
Die get_experiment_models
Methode ruft eine Liste aller
ExperimentModel's ab, die in einer bestimmten
Testausführung protokolliert werden.
Python
run_name: Geben Sie einen Ausführungsnamen an.experiment: Geben Sie den Namen Ihres Tests an. Um die Liste der Experimente in der Google Cloud Console aufzurufen, wählen Sie Tests im Navigationsbereich „Experimente“ aus.project: . Sie finden diese IDs auf der Google Cloud Console Begrüßungsseite.location: Siehe Liste der verfügbaren Standorte.
Modellinformationen abrufen
Die get_model_info Methode gibt die Metadaten des Modells für eine bestimmte
ExperimentModel Instanz zurück, z. B. Modellklasse, Framework-Typ.
Python
artifact_id: : Erforderlich ist die Ressourcen-ID der vorhandenenExperimentModel.project: . Sie finden diese IDs auf der Google Cloud Console Begrüßungsseite.location: Siehe Liste der verfügbaren Standorte.
ExperimentModel laden
Modell laden
Mit der load_experiment_model Methode können Sie eine
ExperimentModel
Instanz zurück auf das ursprüngliche ML-Modell deserialisieren.
Python
artifact_id: : (Erforderlich). Die Ressourcen-ID des vorhandenenExperimentModel. Beispiel:artifact_id="my-sklearn-model"project: . Sie finden diese IDs auf der Google Cloud Console Begrüßungsseite.location: Siehe Liste der verfügbaren Standorte.
ExperimentModel registrieren
Gespeichertes Modell registrieren
Die register_experiment_model API ermöglicht die Registrierung des Modells, das als das beste bewertet wurde, im Vertex AI Model Registry mit einem Minimum an Konfiguration. Die API wählt automatisch einen
vordefinierten Vorhersagecontainer basierend
auf dem Framework und der Version des Modells aus.
Python
artifact_id: : (Erforderlich). Die Ressourcen-ID des vorhandenenExperimentModel.project: . Sie finden diese IDs auf der Google Cloud Console Begrüßungsseite.location: Siehe Liste der verfügbaren Standorte.display_name: Optional. Der benutzerdefinierte Name des registrierten Modells.
Liste der Testausführungen in der Google Cloud Console ansehen
- Rufen Sie in der Google Cloud Console die Seite Tests auf.
Rufen Sie Tests auf.
Eine Liste der Tests wird angezeigt. - Wählen Sie den Test aus, den Sie prüfen möchten.
Es wird eine Liste der Ausführungen angezeigt.
