I modelli Kimi sono disponibili per l'utilizzo come API gestite e modelli di cui è stato eseguito il deployment autonomo su Vertex AI. Puoi trasmettere in streaming le risposte per ridurre la percezione della latenza dell'utente finale. Una risposta in streaming utilizza gli eventi inviati dal server (SSE) per trasmettere in streaming la risposta in modo incrementale.
Modelli Kimi gestiti
I modelli Kimi offrono modelli serverless e completamente gestiti come API. Per utilizzare un modello Kimi su Vertex AI, invia una richiesta direttamente allendpoint APIPI Vertex AI. Quando utilizzi i modelli Kimi come API gestita, non è necessario eseguire il provisioning o gestire l'infrastruttura.
I seguenti modelli sono disponibili da Kimi per l'utilizzo in Vertex AI. Per accedere a un modello Kimi, vai alla relativa scheda del modello Model Garden.
Kimi K2 Thinking
Kimi K2 Thinking è un modello di ragionamento di Kimi che eccelle nella risoluzione di problemi complessi e nel ragionamento approfondito.
Vai alla scheda del modello Kimi K2 ThinkingUtilizzare i modelli Kimi
Per i modelli gestiti, puoi utilizzare i comandi curl per inviare richieste all'endpoint Vertex AI utilizzando i seguenti nomi di modelli:
- Per Kimi K2 Thinking, utilizza
kimi-k2-thinking-maas
Per scoprire come effettuare chiamate di streaming e non di streaming ai modelli Kimi, consulta la sezione Chiamare le API dei modelli aperti.
Per utilizzare un modello Vertex AI con deployment automatico:
- Vai alla console Model Garden.
- Trova il modello Vertex AI pertinente.
- Fai clic su Attiva e compila il modulo fornito per ottenere le licenze per uso commerciale necessarie.
Per saperne di più sul deployment e sull'utilizzo dei modelli partner, consulta Esegui il deployment di un modello partner ed effettua richieste di previsione .
Disponibilità per regione del modello Kimi
I modelli Kimi sono disponibili nelle seguenti regioni:
| Modello | Regioni |
|---|---|
| Kimi K2 Thinking |
|
Passaggi successivi
Scopri come chiamare le API dei modelli aperti.