Spanner Agent Platform-Integration – Übersicht

Auf dieser Seite finden Sie eine Übersicht über die Spanner Agent Platform-Integration. Die Spanner Agent Platform-Integration funktioniert sowohl mit GoogleSQL- als auch mit PostgreSQL-Datenbanken.

Mit der Spanner Agent Platform-Integration können Sie über die GoogleSQL- und PostgreSQL-Schnittstelle auf Klassifikator- und Regressions-ML-Modelle zugreifen, die in Vertex AI gehostet werden. So lässt sich die Funktion zur Bereitstellung von ML-Vorhersagen nahtlos in allgemeine Spanner-Datenzugriffsoperationen einbinden, die mit DQL/DML-Abfragen ausgeführt werden.

Vorteile der Spanner Agent Platform-Integration

Die Generierung von ML-Vorhersagen mit der Spanner Agent Platform-Integration bietet mehrere Vorteile im Vergleich zu dem Ansatz, bei dem der Spanner-Datenzugriff und der Zugriff auf den Vertex AI-Vorhersageendpunkt separat erfolgen:

  • Leistung:
    • Geringere Latenz: Bei der Spanner Agent Platform-Integration, die direkt mit dem Vertex AI-Dienst kommuniziert, sind keine zusätzlichen Roundtrips zwischen einem Compute-Knoten, auf dem ein Spanner-Client ausgeführt wird, und dem Vertex AI-Dienst erforderlich.
    • Höherer Durchsatz/Parallelität: Die Spanner Agent Platform-Integration wird auf der verteilten Abfrageverarbeitungsinfrastruktur von Spanner ausgeführt, die eine hochgradig parallelisierbare Abfrageausführung unterstützt.
  • Nutzerfreundlichkeit:
    • Die Möglichkeit, eine einzige, einfache, konsistente und vertraute SQL-Schnittstelle zu verwenden, um sowohl Datentransformationen als auch ML-Bereitstellungsszenarien auf Spanner-Ebene zu ermöglichen, senkt die Einstiegshürde für ML und sorgt für eine viel reibungslosere Nutzererfahrung.
  • Kosten:
    • Bei der Spanner Agent Platform-Integration wird die Spanner-Rechenkapazität verwendet, um die Ergebnisse von ML-Berechnungen und SQL-Abfrageausführungen zusammenzuführen. Dadurch ist es nicht erforderlich, zusätzliche Rechenressourcen (z. B. in Compute Engine oder Google Kubernetes Engine) dafür bereitzustellen.

Wie funktioniert die Spanner Agent Platform-Integration?

Bei der Spanner Agent Platform-Integration werden keine ML-Modelle gehostet, sondern die Infrastruktur des Vertex AI-Dienstes verwendet. Sie müssen kein Modell mit Vertex AI trainieren, um es mit der Spanner Agent Platform-Integration zu verwenden. Sie müssen es jedoch auf einem Vertex AI-Endpunkt bereitstellen.

So trainieren Sie Modelle mit Daten, die in Spanner gespeichert sind:

Die Spanner Agent Platform-Integration erweitert die folgenden Funktionen für die Verwendung von ML-Modellen:

  • ML-Vorhersagen generieren , indem Sie ein Modell mit SQL für Ihre Spanner-Daten aufrufen. Sie können ein Modell aus dem Vertex AI Model Garden oder ein Modell verwenden, das auf Ihrem Vertex AI-Endpunktbereitgestellt wurde.

  • Texteinbettungen generieren , damit ein LLM Text-Prompts in Zahlen übersetzt. Weitere Informationen zu Einbettungen finden Sie unter Texteinbettungen abrufen.

Funktionen der Spanner Agent Platform-Integration verwenden

Ein Modell in der Spanner Agent Platform-Integration kann verwendet werden, um mit den ML Predict-Funktionen Vorhersagen oder Texteinbettungen in Ihrem SQL-Code zu generieren. Diese Funktionen sind:

GoogleSQL

Sie können die folgende ML Predict-Funktion für GoogleSQL verwenden:

ML.PREDICT

Sie müssen Ihr Modell mit der CREATE MODEL DDL-Anweisung registrieren, bevor Sie es mit der ML.PREDICT Funktion verwenden können.

Sie können auch SAFE.ML.PREDICT verwenden, um in Ihren Vorhersagen null anstelle eines Fehlers zurückzugeben. Das ist hilfreich, wenn Sie große Abfragen ausführen, bei denen einige fehlgeschlagene Vorhersagen tolerierbar sind.

PostgreSQL

Sie können die folgende ML Predict-Funktion für PostgreSQL verwenden:

spanner.ML_PREDICT_ROW

Um die Funktionen zu verwenden, können Sie ein Modell aus dem Vertex AI Model Garden auswählen oder ein Modell verwenden, das Sie in Vertex AI bereitgestellt haben.

Weitere Informationen zum Bereitstellen eines Modells auf einem Endpunkt in Vertex AI finden Sie unter Modell auf einem Endpunkt bereitstellen.

Weitere Informationen zur Verwendung dieser Funktionen zum Generieren einer ML-Vorhersage finden Sie unter ML-Vorhersagen mit SQL generieren.

Weitere Informationen zur Verwendung dieser Funktionen zum Generieren von Texteinbettungen finden Sie unter Texteinbettungen abrufen.

Preise

Für die Verwendung von Spanner mit der Spanner Agent Platform-Integration fallen keine zusätzlichen Gebühren an. Es können jedoch andere potenzielle Gebühren im Zusammenhang mit dieser Funktion anfallen:

  • Sie zahlen die Standardpreise für die Vertex AI- Onlinevorhersage. Die Gesamtgebühr hängt vom verwendeten Modelltyp ab. Für einige Modelltypen gilt ein Pauschalpreis pro Stunde, der vom Maschinentyp und der Anzahl der verwendeten Knoten abhängt. Für einige Modelltypen gelten Preise pro Aufruf. Wir empfehlen, Letztere in einem dedizierten Projekt bereitzustellen, in dem Sie explizite Vorhersagekontingente festgelegt haben.

  • Sie zahlen die Standardpreise für die Datenübertragung zwischen Spanner und Vertex AI. Die Gesamtgebühr hängt von der Region ab, in der sich der Server befindet, der die Abfrage ausführt, und von der Region, in der sich der aufgerufene Endpunkt befindet. Um die Gebühren zu minimieren, stellen Sie Ihre Vertex AI-Endpunkte in derselben Region wie Ihre Spanner-Instanz bereit. Wenn Sie multiregionale Instanzkonfigurationen oder mehrere Vertex AI-Endpunkte verwenden, stellen Sie Ihre Endpunkte auf demselben Kontinent bereit.

SLA

Da die Verfügbarkeit der Vertex AI-Onlinevorhersage geringer ist, müssen Sie Spanner-ML-Modelle richtig konfigurieren, um die Hochverfügbarkeit von Spanner bei der Verwendung der Spanner Agent Platform-Integration aufrechtzuerhalten:

  1. Spanner-ML-Modelle müssen mehrere Vertex AI-Endpunkte im Backend verwenden, um ein Failover zu ermöglichen.
  2. Vertex AI-Endpunkte müssen dem Vertex AI-SLA entsprechen.
  3. Vertex AI-Endpunkte müssen genügend Kapazität bereitstellen, um eingehenden Traffic zu verarbeiten.
  4. Vertex AI-Endpunkte müssen separate Regionen in der Nähe der Spanner-Datenbank verwenden, um regionale Ausfälle zu vermeiden.
  5. Vertex AI-Endpunkte sollten separate Projekte verwenden, um Probleme mit Vorhersagekontingenten pro Projekt zu vermeiden.

Die Anzahl der redundanten Vertex AI-Endpunkte hängt vom SLA und der Anzahl der Zeilen in Spanner-Abfragen ab:

Spanner-SLA Vertex AI-SLA 1 Zeile 10 Zeilen 100 Zeilen 1.000 Zeilen
99,99% 99,9% 2 2 2 3
99,99% 99,5% 2 3 3 4
99,999% 99,9% 2 2 3 3
99,999% 99,5% 3 3 4 4

Vertex AI-Endpunkte müssen nicht genau dasselbe Modell hosten. Wir empfehlen, das Spanner-ML-Modell so zu konfigurieren, dass es ein primäres, komplexes und rechenintensives Modell als ersten Endpunkt hat. Nachfolgende Failover-Endpunkte können auf vereinfachte Modelle verweisen, die weniger rechenintensiv sind, besser skaliert werden können und Trafficspitzen abfangen können.

Beschränkungen

  • Die Modell-Ein- und -Ausgabe muss ein JSON-Objekt sein.

Compliance

Assured Workloads unterstützen die Vertex AI Prediction API nicht. Wenn Sie die Einschränkung „ Ressourcennutzung einschränken “ aktivieren, wird die Vertex AI API und damit die Funktion der Spanner Agent Platform-Integration deaktiviert.

Außerdem empfehlen wir, einen VPC Service Controls-Perimeter zu erstellen, damit Ihre Produktionsdatenbanken keine Verbindung zu Vertex AI-Endpunkten in Ihren Nicht-Produktionsprojekten herstellen können, die möglicherweise nicht die richtige Compliance-Konfiguration haben.