Modèles DeepSeek

Les modèles DeepSeek sont disponibles en tant qu'API gérées et modèles auto-déployés sur Vertex AI. Vous pouvez diffuser vos réponses en flux continu pour réduire la perception de la latence côté utilisateur. Une réponse en flux continu utilise des événements envoyés par le serveur (SSE) pour diffuser la réponse de manière incrémentielle.

Modèles DeepSeek gérés

Les modèles DeepSeek offrent des modèles entièrement gérés et sans serveur en tant qu'API. Pour utiliser un modèle DeepSeek sur Vertex AI, envoyez une requête directement au point de terminaison de l'API Vertex AI. Lorsque vous utilisez des modèles DeepSeek en tant qu'API gérée, il n'est pas nécessaire de provisionner ni de gérer l'infrastructure.

Les modèles suivants sont disponibles depuis DeepSeek et peuvent être utilisés dans Vertex AI. Pour accéder à un modèle DeepSeek, accédez à sa fiche de modèle Model Garden.

DeepSeek-OCR

DeepSeek-OCR est un modèle complet de reconnaissance optique des caractères (OCR) qui analyse et comprend les documents complexes. Il excelle dans les tâches OCR complexes, y compris la reconnaissance de formules mathématiques et le traitement de texte incurvé, pivoté ou se chevauchant.

Accéder à la fiche de modèle DeepSeek-OCR

DeepSeek-V3.2

DeepSeek-V3.2 est un modèle qui harmonise une grande efficacité de calcul avec des performances d'agent et de raisonnement supérieures. L'approche de DeepSeek repose sur trois avancées techniques clés : DeepSeek Sparse Attention (DSA), un framework d'apprentissage par renforcement évolutif et un pipeline de synthèse de tâches agentiques à grande échelle.

Accéder à la fiche du modèle DeepSeek-V3.2

DeepSeek-V3.1

DeepSeek-V3.1 est un modèle hybride qui accepte à la fois le mode de réflexion et le mode sans réflexion. Par rapport à la version précédente, cette mise à niveau apporte des améliorations aux modes de pensée hybrides, à l'appel d'outils et à l'efficacité de la pensée.

Accéder à la fiche de modèle DeepSeek-V3.1

DeepSeek R1 (0528)

DeepSeek R1 (0528) est la dernière version du modèle DeepSeek R1. Par rapport à DeepSeek-R1, il offre une profondeur de raisonnement et des capacités d'inférence considérablement améliorées. DeepSeek R1 (0528) excelle dans un large éventail de tâches, comme l'écriture créative, les questions-réponses générales, l'édition et la synthèse.

Remarques

Pour une sécurité prête pour la production, intégrez DeepSeek R1 (0528) à Model Armor, qui analyse les requêtes et les réponses des LLM pour détecter divers risques de sécurité.

Accéder à la fiche du modèle DeepSeek R1 (0528)

Utiliser les modèles DeepSeek

Pour les modèles gérés, vous pouvez utiliser des commandes curl pour envoyer des requêtes au point de terminaison Vertex AI à l'aide des noms de modèles suivants :

  • Pour DeepSeek-OCR, utilisez deepseek-ocr-maas
  • Pour DeepSeek-V3.2, utilisez deepseek-v3.2-maas.
  • Pour DeepSeek-V3.1, utilisez deepseek-v3.1-maas.
  • Pour DeepSeek R1 (0528), utilisez deepseek-r1-0528-maas.

Pour savoir comment effectuer des appels en streaming et non en streaming aux modèles DeepSeek, consultez Appeler des API de modèles ouverts.

Pour utiliser un modèle Vertex AI déployé automatiquement :

  1. Accédez à la console Model Garden.
  2. Trouvez le modèle Vertex AI approprié.
  3. Cliquez sur Activer et remplissez le formulaire fourni pour obtenir les licences d'utilisation commerciale nécessaires.

Pour en savoir plus sur le déploiement et l'utilisation des modèles partenaires, consultez Déployer un modèle partenaire et envoyer des requêtes de prédiction .

Disponibilité des régions du modèle DeepSeek

Les modèles DeepSeek sont disponibles dans les régions suivantes :

Modèle Régions
DeepSeek-OCR
  • us-central1
    • Sortie max. : 8 192
    • Longueur du contexte : 8 192
DeepSeek-V3.2
  • global
    • Sortie maximale : 65 536
    • Longueur du contexte : 163 840
DeepSeek-V3.1
  • us-central1
    • Sortie maximale : 32 768
    • Longueur du contexte : 163 840
DeepSeek R1 (0528)
  • us-central1
    • Sortie maximale : 32 768
    • Longueur du contexte : 163 840

Étapes suivantes

Découvrez comment appeler des API de modèles ouverts.