Les modèles DeepSeek sur Vertex AI offrent des modèles sans serveur et entièrement gérés en tant qu'API. Pour utiliser un modèle DeepSeek sur Vertex AI, envoyez une requête directement au point de terminaison de l'API Vertex AI. Étant donné que les modèles DeepSeek utilisent une API gérée, il n'est pas nécessaire de provisionner ni de gérer l'infrastructure.
Vous pouvez diffuser vos réponses en flux continu pour réduire la perception de la latence côté utilisateur. Une réponse en flux continu utilise des événements envoyés par le serveur (SSE) pour diffuser la réponse de manière incrémentielle.
Modèles DeepSeek disponibles
Les modèles suivants sont disponibles depuis DeepSeek et peuvent être utilisés dans Vertex AI. Pour accéder à un modèle DeepSeek, accédez à sa fiche de modèle Model Garden.
DeepSeek-OCR
DeepSeek-OCR est un modèle complet de reconnaissance optique des caractères (OCR) qui analyse et comprend les documents complexes. Il excelle dans les tâches OCR difficiles, y compris la reconnaissance de formules mathématiques et le traitement de texte incurvé, pivoté ou se chevauchant.
Accéder à la fiche de modèle DeepSeek-OCR
DeepSeek-V3.2
DeepSeek-V3.2 est un modèle qui harmonise une grande efficacité de calcul avec des performances supérieures en termes de raisonnement et d'agent. L'approche de DeepSeek repose sur trois avancées techniques clés : DeepSeek Sparse Attention (DSA), un framework d'apprentissage par renforcement évolutif et un pipeline de synthèse de tâches agentiques à grande échelle.
Accéder à la fiche de modèle DeepSeek-V3.2
DeepSeek-V3.1
DeepSeek-V3.1 est un modèle hybride qui accepte à la fois le mode de réflexion et le mode sans réflexion. Par rapport à la version précédente, cette mise à niveau apporte des améliorations aux modes de pensée hybrides, à l'appel d'outils et à l'efficacité de la pensée.
Accéder à la fiche de modèle DeepSeek-V3.1
DeepSeek R1 (0528)
DeepSeek R1 (0528) est la dernière version du modèle DeepSeek R1. Par rapport à DeepSeek-R1, il offre une profondeur de raisonnement et des capacités d'inférence considérablement améliorées. DeepSeek R1 (0528) excelle dans un large éventail de tâches, telles que l'écriture créative, les questions-réponses générales, l'édition et la synthèse.
Remarques
- Pour une sécurité adaptée à la production, intégrez DeepSeek R1 (0528) à Model Armor, qui analyse les requêtes et les réponses des LLM pour détecter divers risques de sécurité.
Accéder à la fiche de modèle DeepSeek R1 (0528)
Utiliser les modèles DeepSeek
Vous pouvez utiliser des commandes curl pour envoyer des requêtes au point de terminaison Vertex AI en employant les noms de modèles suivants :
- Pour DeepSeek-OCR, utilisez
deepseek-ocr-maas - Pour DeepSeek-V3.2, utilisez
deepseek-v3.2-maas. - Pour DeepSeek-V3.1, utilisez
deepseek-v3.1-maas. - Pour DeepSeek R1 (0528), utilisez
deepseek-r1-0528-maas.
Pour savoir comment effectuer des appels en streaming et non en streaming aux modèles DeepSeek, consultez Appeler des API de modèles ouverts.
Disponibilité et quotas des régions d'un modèle DeepSeek
Pour les modèles DeepSeek, un quota s'applique à chaque région dans laquelle le modèle est disponible. Le quota est spécifié en requêtes par minute (RPM).
| Modèle | Région | Quotas | Longueur du contexte |
|---|---|---|---|
| DeepSeek-OCR | |||
us-central1 |
|
8 192 | |
| DeepSeek-V3.2 | |||
global |
|
163 840 | |
| DeepSeek-V3.1 | |||
us-west2 |
|
163 840 | |
| DeepSeek R1 (0528) | |||
us-central1 |
|
163 840 |
Si vous souhaitez augmenter vos quotas pour l'IA générative sur Vertex AI, vous pouvez en faire la demande via la console Google Cloud . Pour en savoir plus sur les quotas, consultez la présentation de Cloud Quotas.
Étapes suivantes
- Découvrez comment appeler des API de modèles ouverts.