Google-Modelle in Vertex AI bieten vollständig verwaltete und serverlose Modelle als APIs. Wenn Sie ein Google-Modell für Vertex AI verwenden möchten, senden Sie eine Anfrage direkt an den API-Endpunkt von Vertex AI. Da Google-Modelle eine verwaltete API verwenden, muss keine Infrastruktur bereitgestellt oder verwaltet werden.
Sie können Ihre Antworten streamen, um die vom Endnutzer wahrgenommene Latenz zu reduzieren. Eine gestreamte Antwort verwendet Server-Sent Events (SSE), um die Antwort schrittweise zu streamen.
Gemma 4 26B A4B IT
Gemma 4 26B A4B IT ist ein multimodales Modell von Google, das Text- und Bildeingaben verarbeitet (Audio wird bei kleinen Modellen unterstützt) und Textausgaben generiert.
Zur Modellkarte für Gemma 4 26B A4B ITGoogle-Modelle verwenden
Für verwaltete Modelle können Sie curl-Befehle verwenden, um Anfragen mit den folgenden Modellnamen an den Vertex AI-Endpunkt zu senden:
- Verwenden Sie für Gemma 4 26B A4B IT
gemma-4-26b-a4b-it-maas.
Informationen zum Ausführen von Streaming- und Nicht-Streaming-Aufrufen an Google-Modelle finden Sie unter Open-Model-APIs aufrufen.
So verwenden Sie ein selbst bereitgestelltes Vertex AI-Modell:
- Rufen Sie die Model Garden-Konsole auf.
- Suchen Sie das entsprechende Vertex AI-Modell.
- Klicken Sie auf Aktivieren und füllen Sie das bereitgestellte Formular aus, um die erforderlichen Lizenzen für die kommerzielle Nutzung zu erhalten.
Weitere Informationen zum Bereitstellen und Verwenden von Partnermodellen finden Sie unter Partnermodell bereitstellen und Vorhersageanfragen stellen .
Regionale Verfügbarkeit von Google-Modellen
Google-Modelle sind in den folgenden Regionen verfügbar:
| Modell | Regionen |
|---|---|
| Gemma 4 26B A4B IT |
|
Nächste Schritte
Informationen zum Aufrufen von APIs für offene Modelle