Les modèles DeepSeek sur Vertex AI offrent des modèles sans serveur et entièrement gérés en tant qu'API. Pour utiliser un modèle DeepSeek sur Vertex AI, envoyez une requête directement au point de terminaison de l'API Vertex AI. Étant donné que les modèles DeepSeek utilisent une API gérée, il n'est pas nécessaire de provisionner ni de gérer l'infrastructure.
Vous pouvez diffuser vos réponses en flux continu pour réduire la perception de la latence côté utilisateur. Une réponse en flux continu utilise des événements envoyés par le serveur (SSE) pour diffuser la réponse de manière incrémentielle.
Modèles DeepSeek disponibles
Les modèles suivants sont disponibles depuis DeepSeek et peuvent être utilisés dans Vertex AI. Pour accéder à un modèle DeepSeek, accédez à sa fiche de modèle Model Garden.
DeepSeek-V3.1
DeepSeek-V3.1 est un modèle hybride qui accepte à la fois le mode de réflexion et le mode sans réflexion. Par rapport à la version précédente, cette mise à niveau apporte des améliorations aux modes de pensée hybrides, à l'appel d'outils et à l'efficacité de la pensée.
Accéder à la fiche de modèle DeepSeek-V3.1
DeepSeek R1 (0528)
DeepSeek R1 (0528) est la dernière version du modèle DeepSeek R1. Par rapport à DeepSeek-R1, il offre une profondeur de raisonnement et des capacités d'inférence nettement améliorées. DeepSeek R1 (0528) excelle dans un large éventail de tâches, telles que l'écriture créative, les questions-réponses générales, l'édition et la synthèse.
Remarques
- Pour une sécurité adaptée à la production, intégrez DeepSeek R1 (0528) à Model Armor, qui analyse les requêtes et les réponses des LLM pour détecter divers risques de sécurité.
Accéder à la fiche de modèle DeepSeek R1 (0528)
Utiliser les modèles DeepSeek
Vous pouvez utiliser des commandes curl pour envoyer des requêtes au point de terminaison Vertex AI en employant les noms de modèles suivants :
- Pour DeepSeek-V3.1, utilisez
deepseek-v3.1-maas
. - Pour DeepSeek R1 (0528), utilisez
deepseek-r1-0528-maas
.
Pour savoir comment effectuer des appels en streaming et non en streaming aux modèles DeepSeek, consultez Appeler des API de modèles ouverts.
Disponibilité et quotas des régions d'un modèle DeepSeek
Pour les modèles DeepSeek, un quota s'applique à chaque région dans laquelle le modèle est disponible. Le quota est spécifié en requêtes par minute (RPM).
Modèle | Région | Quotas | Longueur du contexte |
---|---|---|---|
DeepSeek-V3.1 | |||
us-west2 |
|
163 840 | |
DeepSeek R1 (0528) | |||
us-central1 |
|
163 840 |
Si vous souhaitez augmenter vos quotas pour l'IA générative sur Vertex AI, vous pouvez en faire la demande via la console Google Cloud . Pour en savoir plus sur les quotas, consultez la présentation des quotas Cloud.
Étapes suivantes
- Découvrez comment appeler des API de modèles ouverts.