I modelli DeepSeek su Vertex AI offrono modelli completamente gestiti e serverless come API. Per utilizzare un modello DeepSeek su Vertex AI, invia una richiesta direttamente all'endpoint API Vertex AI. Poiché i modelli DeepSeek utilizzano un'API gestita, non è necessario eseguire il provisioning o gestire l'infrastruttura.
Puoi trasmettere in streaming le risposte per ridurre la percezione della latenza da parte dell'utente finale. Una risposta in streaming utilizza gli eventi inviati dal server (SSE) per trasmettere in streaming in modo incrementale la risposta.
Modelli DeepSeek disponibili
I seguenti modelli sono disponibili da DeepSeek per l'utilizzo in Vertex AI. Per accedere a un modello DeepSeek, vai alla relativa scheda del modello Model Garden.
DeepSeek-OCR
DeepSeek-OCR è un modello completo di riconoscimento ottico dei caratteri (OCR) che analizza e comprende documenti complessi. È eccellente nelle attività OCR complesse, tra cui il riconoscimento di formule matematiche e l'elaborazione di testo curvo, ruotato o sovrapposto.
Vai alla scheda del modello DeepSeek-OCR
DeepSeek-V3.2
DeepSeek-V3.2 è un modello che armonizza l'elevata efficienza computazionale con ragionamento e prestazioni dell'agente superiori. L'approccio di DeepSeek si basa su tre importanti scoperte tecniche: DeepSeek Sparse Attention (DSA), framework di apprendimento per rinforzo scalabile e pipeline di sintesi di attività agenti su larga scala.
Vai alla scheda del modello DeepSeek-V3.2
DeepSeek-V3.1
DeepSeek-V3.1 è un modello ibrido che supporta sia la modalità di pensiero che quella non di pensiero. Rispetto alla versione precedente, questo upgrade migliora le modalità di pensiero ibrido, la chiamata di strumenti e l'efficienza del pensiero.
Vai alla scheda del modello DeepSeek-V3.1
DeepSeek R1 (0528)
DeepSeek R1 (0528) è l'ultima versione del modello DeepSeek R1. Rispetto a DeepSeek-R1, ha migliorato significativamente la profondità del ragionamento e le capacità di inferenza. DeepSeek R1 (0528) eccelle in un'ampia gamma di attività, come scrittura creativa, risposta a domande generali, editing e riassunto.
Considerazioni
- Per una sicurezza pronta per la produzione, integra DeepSeek R1 (0528) con Model Armor, che analizza i prompt e le risposte degli LLM in base a vari rischi per la sicurezza e la protezione.
Vai alla scheda del modello DeepSeek R1 (0528)
Utilizzare i modelli DeepSeek
Puoi utilizzare i comandi curl per inviare richieste all'endpoint Vertex AI utilizzando i seguenti nomi di modelli:
- Per DeepSeek-OCR, utilizza
deepseek-ocr-maas - Per DeepSeek-V3.2, utilizza
deepseek-v3.2-maas - Per DeepSeek-V3.1, utilizza
deepseek-v3.1-maas - Per DeepSeek R1 (0528), utilizza
deepseek-r1-0528-maas
Per scoprire come effettuare chiamate di streaming e non di streaming ai modelli DeepSeek, consulta la sezione Chiamare le API dei modelli aperti.
Disponibilità e quote per la regione del modello DeepSeek
Per i modelli DeepSeek, si applica una quota per ogni regione in cui il modello è disponibile. La quota è specificata in query al minuto (QPM).
| Modello | Regione | Quote | Lunghezza del contesto |
|---|---|---|---|
| DeepSeek-OCR | |||
us-central1 |
|
8192 | |
| DeepSeek-V3.2 | |||
global |
|
163.840 | |
| DeepSeek-V3.1 | |||
us-west2 |
|
163.840 | |
| DeepSeek R1 (0528) | |||
us-central1 |
|
163.840 |
Se vuoi aumentare una delle quote per l'AI generativa su Vertex AI, puoi utilizzare la Google Cloud console per richiedere un aumento di quota. Per saperne di più sulle quote, consulta la panoramica delle quote di Cloud.
Passaggi successivi
- Scopri come chiamare le API dei modelli aperti.