Google-Modelle

Google-Modelle in Vertex AI bieten vollständig verwaltete und serverlose Modelle als APIs. Wenn Sie ein Google-Modell für Vertex AI verwenden möchten, senden Sie eine Anfrage direkt an den API-Endpunkt von Vertex AI. Da Google-Modelle eine verwaltete API verwenden, muss keine Infrastruktur bereitgestellt oder verwaltet werden.

Sie können Ihre Antworten streamen, um die vom Endnutzer wahrgenommene Latenz zu reduzieren. Eine gestreamte Antwort verwendet Server-Sent Events (SSE), um die Antwort schrittweise zu streamen.

Gemma 4 26B A4B IT

Gemma 4 26B A4B IT ist ein multimodales Modell von Google, das Text- und Bildeingaben verarbeitet (Audio wird bei kleinen Modellen unterstützt) und Textausgaben generiert.

Zur Modellkarte für Gemma 4 26B A4B IT

Google-Modelle verwenden

Für verwaltete Modelle können Sie curl-Befehle verwenden, um Anfragen mit den folgenden Modellnamen an den Vertex AI-Endpunkt zu senden:

  • Verwenden Sie für Gemma 4 26B A4B IT gemma-4-26b-a4b-it-maas.

Informationen zum Ausführen von Streaming- und Nicht-Streaming-Aufrufen an Google-Modelle finden Sie unter Open-Model-APIs aufrufen.

So verwenden Sie ein selbst bereitgestelltes Vertex AI-Modell:

  1. Rufen Sie die Model Garden-Konsole auf.
  2. Suchen Sie das entsprechende Vertex AI-Modell.
  3. Klicken Sie auf Aktivieren und füllen Sie das bereitgestellte Formular aus, um die erforderlichen Lizenzen für die kommerzielle Nutzung zu erhalten.

Weitere Informationen zum Bereitstellen und Verwenden von Partnermodellen finden Sie unter Partnermodell bereitstellen und Vorhersageanfragen stellen .

Regionale Verfügbarkeit von Google-Modellen

Google-Modelle sind in den folgenden Regionen verfügbar:

Modell Regionen
Gemma 4 26B A4B IT
  • global
    • Maximale Ausgabe: 128.000
    • Kontextlänge: 256.000

Nächste Schritte

Informationen zum Aufrufen von APIs für offene Modelle