Modelli DeepSeek

I modelli DeepSeek sono disponibili per l'utilizzo come API gestite e modelli di cui è stato eseguito il deployment autonomo su Vertex AI. Puoi trasmettere in streaming le risposte per ridurre la percezione della latenza dell'utente finale. Una risposta in streaming utilizza gli eventi inviati dal server (SSE) per trasmettere in streaming la risposta in modo incrementale.

Modelli DeepSeek gestiti

I modelli DeepSeek offrono modelli serverless e completamente gestiti come API. Per utilizzare un modello DeepSeek su Vertex AI, invia una richiesta direttamente all'endpoint API Vertex AI. Quando utilizzi i modelli DeepSeek come API gestita, non è necessario eseguire il provisioning o gestire l'infrastruttura.

I seguenti modelli sono disponibili da DeepSeek per l'utilizzo in Vertex AI. Per accedere a un modello DeepSeek, vai alla relativa scheda del modello in Model Garden.

DeepSeek-OCR

DeepSeek-OCR è un modello completo di riconoscimento ottico dei caratteri (OCR) che analizza e comprende documenti complessi. È eccellente in attività OCR complesse, tra cui il riconoscimento di formule matematiche e l'elaborazione di testo curvo, ruotato o sovrapposto.

Vai alla scheda del modello DeepSeek-OCR

DeepSeek-V3.2

DeepSeek-V3.2 è un modello che armonizza l'elevata efficienza computazionale con prestazioni superiori di ragionamento e dell'agente. L'approccio di DeepSeek si basa su tre scoperte tecniche chiave: DeepSeek Sparse Attention (DSA), framework di apprendimento per rinforzo scalabile e pipeline di sintesi di attività agentiche su larga scala.

Vai alla scheda del modello DeepSeek-V3.2

DeepSeek-V3.1

DeepSeek-V3.1 è un modello ibrido che supporta sia la modalità di pensiero che quella non di pensiero. Rispetto alla versione precedente, questo upgrade offre miglioramenti nelle modalità di pensiero ibrido, nella chiamata di strumenti e nell'efficienza del pensiero.

Vai alla scheda del modello DeepSeek-V3.1

DeepSeek R1 (0528)

DeepSeek R1 (0528) è l'ultima versione del modello DeepSeek R1. Rispetto a DeepSeek-R1, ha migliorato significativamente la profondità del ragionamento e le capacità di inferenza. DeepSeek R1 (0528) eccelle in un'ampia gamma di attività, come la scrittura creativa, la risposta a domande generali, la modifica e il riepilogo.

Considerazioni

Per una sicurezza pronta per la produzione, integra DeepSeek R1 (0528) con Model Armor, che analizza i prompt e le risposte degli LLM in base a vari rischi per la sicurezza e la protezione.

Vai alla scheda del modello DeepSeek R1 (0528)

Utilizzare i modelli DeepSeek

Per i modelli gestiti, puoi utilizzare i comandi curl per inviare richieste all'endpoint Vertex AI utilizzando i seguenti nomi di modelli:

  • Per DeepSeek-OCR, utilizza deepseek-ocr-maas
  • Per DeepSeek-V3.2, utilizza deepseek-v3.2-maas
  • Per DeepSeek-V3.1, utilizza deepseek-v3.1-maas
  • Per DeepSeek R1 (0528), utilizza deepseek-r1-0528-maas

Per scoprire come effettuare chiamate di streaming e non di streaming ai modelli DeepSeek, consulta la sezione Chiamare le API open model.

Per utilizzare un modello Vertex AI con deployment automatico:

  1. Vai alla console Model Garden.
  2. Trova il modello Vertex AI pertinente.
  3. Fai clic su Attiva e compila il modulo fornito per ottenere le licenze per uso commerciale necessarie.

Per saperne di più sul deployment e sull'utilizzo dei modelli partner, consulta Esegui il deployment di un modello partner ed effettua richieste di previsione .

Disponibilità della regione del modello DeepSeek

I modelli DeepSeek sono disponibili nelle seguenti regioni:

Modello Regioni
DeepSeek-OCR
  • us-central1
    • Output massimo: 8192
    • Lunghezza del contesto: 8192
DeepSeek-V3.2
  • global
    • Output massimo: 65.536
    • Lunghezza del contesto: 163.840
DeepSeek-V3.1
  • us-central1
    • Output massimo: 32.768
    • Lunghezza del contesto: 163.840
DeepSeek R1 (0528)
  • us-central1
    • Output massimo: 32.768
    • Lunghezza del contesto: 163.840

Passaggi successivi

Scopri come chiamare le API dei modelli aperti.