Kimi-Modelle sind als verwaltete APIs und selbst bereitgestellte Modelle in Vertex AI verfügbar. Sie können Ihre Antworten streamen, um die vom Endnutzer wahrgenommene Latenz zu reduzieren. Eine gestreamte Antwort verwendet vom Server gesendete Ereignisse (SSE, Server-Sent Events), um die Antwort schrittweise zu streamen.
Verwaltete Kimi-Modelle
Kimi-Modelle bieten vollständig verwaltete und serverlose Modelle als APIs. Wenn Sie ein Kimi-Modell für Vertex AI verwenden möchten, senden Sie eine Anfrage direkt an den API-Endpunkt von Vertex AI. Wenn Sie Kimi-Modelle als verwaltete API verwenden, müssen Sie keine Infrastruktur bereitstellen oder verwalten.
Die folgenden Modelle sind von Kimi zur Verwendung in Vertex AI verfügbar. Rufen Sie die zugehörige Model Garden-Modellkarte auf, um auf ein Kimi-Modell zuzugreifen.
Kimi K2 Thinking
Kimi K2 Thinking ist ein Thinking-Modell von Kimi, das sich durch komplexes Problemlösen und tiefes logisches Denken auszeichnet.
Zur Modellkarte für Kimi K2 ThinkingKimi-Modelle verwenden
Für verwaltete Modelle können Sie curl-Befehle verwenden, um Anfragen mit den folgenden Modellnamen an den Vertex AI-Endpunkt zu senden:
- Verwenden Sie für Kimi K2 Thinking
kimi-k2-thinking-maas.
Informationen zum Senden von Streaming- und Nicht-Streaming-Aufrufen an Kimi-Modelle finden Sie unter Open-Model-APIs aufrufen.
So verwenden Sie ein selbst bereitgestelltes Vertex AI-Modell:
- Rufen Sie die Model Garden-Konsole auf.
- Suchen Sie das entsprechende Vertex AI-Modell.
- Klicken Sie auf Aktivieren und füllen Sie das bereitgestellte Formular aus, um die erforderlichen Lizenzen für die kommerzielle Nutzung zu erhalten.
Weitere Informationen zum Bereitstellen und Verwenden von Partnermodellen finden Sie unter Partnermodell bereitstellen und Vorhersageanfragen stellen .
Regionale Verfügbarkeit des Kimi-Modells
Kimi-Modelle sind in den folgenden Regionen verfügbar:
| Modell | Regionen |
|---|---|
| Kimi K2 Thinking |
|
Nächste Schritte
Informationen zum Aufrufen von APIs für offene Modelle