OpenAI-Modelle in Vertex AI bieten vollständig verwaltete und serverlose Modelle als APIs. Wenn Sie ein OpenAI-Modell für Vertex AI verwenden möchten, senden Sie eine Anfrage direkt an den API-Endpunkt von Vertex AI. Da OpenAI-Modelle eine verwaltete API verwenden, muss keine Infrastruktur bereitgestellt oder verwaltet werden.
Sie können Ihre Antworten streamen, um die vom Endnutzer wahrgenommene Latenz zu reduzieren. Eine gestreamte Antwort verwendet Server-Sent Events (SSE), um die Antwort schrittweise zu streamen.
Verfügbare OpenAI-Modelle
Die folgenden Modelle sind von OpenAI zur Verwendung in Vertex AI verfügbar. Rufen Sie die zugehörige Model Garden-Modellkarte auf, um auf ein OpenAI-Modell zuzugreifen.
gpt-oss 120B
OpenAI gpt-oss 120B ist ein Sprachmodell mit 120 Milliarden Parametern, das unter der Apache 2.0-Lizenz veröffentlicht wurde. Es eignet sich gut für Anwendungsfälle mit Reasoning und Funktionsaufrufen. Das Modell ist für die Bereitstellung auf Consumer-Hardware optimiert.
Das 120B-Modell erreicht bei wichtigen Benchmarks für das logische Denken eine ähnliche Leistung wie OpenAI o4-mini, während es auf einer einzelnen 80‑GB-GPU ausgeführt wird.
Zur Modellkarte für gpt-oss 120B
gpt-oss 20B
OpenAI gpt-oss 20B ist ein Sprachmodell mit 20 Milliarden Parametern, das unter der Apache-Lizenz 2.0 veröffentlicht wurde. Es eignet sich gut für Anwendungsfälle mit Reasoning und Funktionsaufrufen. Das Modell ist für die Bereitstellung auf Consumer-Hardware optimiert.
Das 20B-Modell liefert bei gängigen Benchmarks ähnliche Ergebnisse wie OpenAI o3-mini und kann auf Edge-Geräten mit 16 GB Arbeitsspeicher ausgeführt werden. Es eignet sich daher ideal für On-Device-Anwendungsfälle, lokale Inferenz oder schnelle Iterationen ohne kostspielige Infrastruktur.
Zur Modellkarte für gpt-oss 20B
OpenAI-Modelle verwenden
Informationen dazu, wie Sie Streaming- und Nicht-Streaming-Aufrufe an OpenAI-Modelle senden, finden Sie unter Open-Model-APIs aufrufen.