Modelli Kimi

I modelli Kimi sono disponibili per l'utilizzo come API gestite e modelli di cui è stato eseguito il deployment autonomo su Vertex AI. Puoi trasmettere in streaming le risposte per ridurre la percezione della latenza dell'utente finale. Una risposta in streaming utilizza gli eventi inviati dal server (SSE) per trasmettere in streaming la risposta in modo incrementale.

Modelli Kimi gestiti

I modelli Kimi offrono modelli serverless e completamente gestiti come API. Per utilizzare un modello Kimi su Vertex AI, invia una richiesta direttamente all&#3endpoint APIPI Vertex AI. Quando utilizzi i modelli Kimi come API gestita, non è necessario eseguire il provisioning o gestire l'infrastruttura.

I seguenti modelli sono disponibili da Kimi per l'utilizzo in Vertex AI. Per accedere a un modello Kimi, vai alla relativa scheda del modello Model Garden.

Kimi K2 Thinking

Kimi K2 Thinking è un modello di ragionamento di Kimi che eccelle nella risoluzione di problemi complessi e nel ragionamento approfondito.

Vai alla scheda del modello Kimi K2 Thinking

Utilizzare i modelli Kimi

Per i modelli gestiti, puoi utilizzare i comandi curl per inviare richieste all'endpoint Vertex AI utilizzando i seguenti nomi di modelli:

  • Per Kimi K2 Thinking, utilizza kimi-k2-thinking-maas

Per scoprire come effettuare chiamate di streaming e non di streaming ai modelli Kimi, consulta la sezione Chiamare le API dei modelli aperti.

Per utilizzare un modello Vertex AI con deployment automatico:

  1. Vai alla console Model Garden.
  2. Trova il modello Vertex AI pertinente.
  3. Fai clic su Attiva e compila il modulo fornito per ottenere le licenze per uso commerciale necessarie.

Per saperne di più sul deployment e sull'utilizzo dei modelli partner, consulta Esegui il deployment di un modello partner ed effettua richieste di previsione .

Disponibilità per regione del modello Kimi

I modelli Kimi sono disponibili nelle seguenti regioni:

Modello Regioni
Kimi K2 Thinking
  • global
    • Output massimo: 262.144
    • Lunghezza del contesto: 262.144

Passaggi successivi

Scopri come chiamare le API dei modelli aperti.