Modelos de DeepSeek

Los modelos de DeepSeek están disponibles para usarse como APIs administradas y modelos autoinstalados en Vertex AI. Puedes transmitir tus respuestas para reducir la percepción de latencia del usuario final. Una respuesta transmitida usa eventos enviados por el servidor (SSE) para transmitir la respuesta de forma incremental.

Modelos administrados de DeepSeek

Los modelos DeepSeek ofrecen modelos completamente administrados y sin servidores como APIs. Para usar un modelo de DeepSeek en Vertex AI, envía una solicitud directamente al extremo de API de Vertex AI. Cuando se usan los modelos de DeepSeek como una API administrada, no es necesario aprovisionar ni administrar la infraestructura.

Los siguientes modelos están disponibles en DeepSeek para usarlos en Vertex AI. Para acceder a un modelo DeepSeek, ve a su tarjeta de modelo de Model Garden.

DeepSeek-OCR

DeepSeek-OCR es un modelo integral de reconocimiento óptico de caracteres (OCR) que analiza y comprende documentos complejos. Se destaca en tareas de OCR complejas, como el reconocimiento de fórmulas matemáticas y el procesamiento de texto curvo, rotado o superpuesto.

Ir a la tarjeta del modelo DeepSeek-OCR

DeepSeek-V3.2

DeepSeek-V3.2 es un modelo que armoniza una alta eficiencia computacional con un razonamiento y un rendimiento del agente superiores. El enfoque de DeepSeek se basa en tres avances técnicos clave: DeepSeek Sparse Attention (DSA), un marco de aprendizaje por refuerzo escalable y una canalización de síntesis de tareas basadas en agentes a gran escala.

Ir a la tarjeta del modelo DeepSeek-V3.2

DeepSeek-V3.1

DeepSeek-V3.1 es un modelo híbrido que admite el modo de pensamiento y el modo sin pensamiento. En comparación con la versión anterior, esta actualización ofrece mejoras en los modos de pensamiento híbrido, la llamada a herramientas y la eficiencia del pensamiento.

Ir a la tarjeta del modelo DeepSeek-V3.1

DeepSeek R1 (0528)

DeepSeek R1 (0528) es la versión más reciente del modelo DeepSeek R1. En comparación con DeepSeek-R1, mejoró significativamente la profundidad del razonamiento y las capacidades de inferencia. DeepSeek R1 (0528) se destaca en una amplia variedad de tareas, como la escritura creativa, la búsqueda de respuestas generales, la edición y el resumen.

Consideraciones

Para obtener seguridad lista para la producción, integra DeepSeek R1 (0528) con Model Armor, que analiza las instrucciones y respuestas de LLM en busca de diversos riesgos de seguridad.

Ir a la tarjeta del modelo DeepSeek R1 (0528)

Usa modelos de DeepSeek

En el caso de los modelos administrados, puedes usar comandos curl para enviar solicitudes al extremo de Vertex AI con los siguientes nombres de modelos:

  • Para DeepSeek-OCR, usa deepseek-ocr-maas.
  • Para DeepSeek-V3.2, usa deepseek-v3.2-maas
  • Para DeepSeek-V3.1, usa deepseek-v3.1-maas
  • Para DeepSeek R1 (0528), usa deepseek-r1-0528-maas

Para obtener información sobre cómo realizar llamadas de transmisión y no transmisión a los modelos de DeepSeek, consulta Cómo llamar a las APIs de modelos abiertos.

Para usar un modelo de Vertex AI implementado por el usuario, haz lo siguiente:

  1. Navega a la consola de Model Garden.
  2. Busca el modelo de Vertex AI pertinente.
  3. Haz clic en Habilitar y completa el formulario proporcionado para obtener las licencias de uso comercial necesarias.

Para obtener más información sobre la implementación y el uso de modelos de socios, consulta Implementa un modelo de socio y realiza solicitudes de predicción .

Disponibilidad del modelo DeepSeek por región

Los modelos de DeepSeek están disponibles en las siguientes regiones:

Modelo Regiones
DeepSeek-OCR
  • us-central1
    • Salida máxima: 8,192
    • Longitud del contexto: 8,192
DeepSeek-V3.2
  • global
    • Salida máx.: 65,536
    • Longitud del contexto: 163,840
DeepSeek-V3.1
  • us-central1
    • Salida máx.: 32,768
    • Longitud del contexto: 163,840
DeepSeek R1 (0528)
  • us-central1
    • Salida máx.: 32,768
    • Longitud del contexto: 163,840

¿Qué sigue?

Obtén más información para llamar a las APIs de modelos abiertos.