Kimi-Modelle

Kimi-Modelle sind als verwaltete APIs und selbst bereitgestellte Modelle in Vertex AI verfügbar. Sie können Ihre Antworten streamen, um die vom Endnutzer wahrgenommene Latenz zu reduzieren. Eine gestreamte Antwort verwendet vom Server gesendete Ereignisse (SSE, Server-Sent Events), um die Antwort schrittweise zu streamen.

Verwaltete Kimi-Modelle

Kimi-Modelle bieten vollständig verwaltete und serverlose Modelle als APIs. Wenn Sie ein Kimi-Modell für Vertex AI verwenden möchten, senden Sie eine Anfrage direkt an den API-Endpunkt von Vertex AI. Wenn Sie Kimi-Modelle als verwaltete API verwenden, müssen Sie keine Infrastruktur bereitstellen oder verwalten.

Die folgenden Modelle sind von Kimi zur Verwendung in Vertex AI verfügbar. Rufen Sie die zugehörige Model Garden-Modellkarte auf, um auf ein Kimi-Modell zuzugreifen.

Kimi K2 Thinking

Kimi K2 Thinking ist ein Thinking-Modell von Kimi, das sich durch komplexes Problemlösen und tiefes logisches Denken auszeichnet.

Zur Modellkarte für Kimi K2 Thinking

Kimi-Modelle verwenden

Für verwaltete Modelle können Sie curl-Befehle verwenden, um Anfragen mit den folgenden Modellnamen an den Vertex AI-Endpunkt zu senden:

  • Verwenden Sie für Kimi K2 Thinking kimi-k2-thinking-maas.

Informationen zum Senden von Streaming- und Nicht-Streaming-Aufrufen an Kimi-Modelle finden Sie unter Open-Model-APIs aufrufen.

So verwenden Sie ein selbst bereitgestelltes Vertex AI-Modell:

  1. Rufen Sie die Model Garden-Konsole auf.
  2. Suchen Sie das entsprechende Vertex AI-Modell.
  3. Klicken Sie auf Aktivieren und füllen Sie das bereitgestellte Formular aus, um die erforderlichen Lizenzen für die kommerzielle Nutzung zu erhalten.

Weitere Informationen zum Bereitstellen und Verwenden von Partnermodellen finden Sie unter Partnermodell bereitstellen und Vorhersageanfragen stellen .

Regionale Verfügbarkeit des Kimi-Modells

Kimi-Modelle sind in den folgenden Regionen verfügbar:

Modell Regionen
Kimi K2 Thinking
  • global
    • Maximale Ausgabe: 262.144
    • Kontextlänge: 262.144

Nächste Schritte

Informationen zum Aufrufen von APIs für offene Modelle