Modelos de DeepSeek

Los modelos DeepSeek en Vertex AI ofrecen modelos completamente administrados y sin servidores como APIs. Para usar un modelo de DeepSeek en Vertex AI, envía una solicitud directamente al extremo de API de Vertex AI. Debido a que los modelos de DeepSeek usan una API administrada, no es necesario aprovisionar ni administrar la infraestructura.

Puedes transmitir tus respuestas para reducir la percepción de latencia del usuario final. Una respuesta transmitida usa eventos enviados por el servidor (SSE) para transmitir la respuesta de forma incremental.

Modelos de DeepSeek disponibles

Los siguientes modelos están disponibles de DeepSeek para usarlos en Vertex AI. Para acceder a un modelo de DeepSeek, ve a su tarjeta de modelo de Model Garden.

DeepSeek-V3.1

DeepSeek-V3.1 es un modelo híbrido que admite el modo de pensamiento y el modo sin pensamiento. En comparación con la versión anterior, esta actualización ofrece mejoras en los modos de pensamiento híbrido, la llamada a herramientas y la eficiencia del pensamiento.

Ir a la tarjeta de modelo de DeepSeek-V3.1

DeepSeek R1 (0528)

DeepSeek R1 (0528) es la versión más reciente del modelo DeepSeek R1. En comparación con DeepSeek-R1, mejoró significativamente la profundidad de las capacidades de razonamiento y de inferencia. DeepSeek R1 (0528) se destaca en una amplia variedad de tareas, como la escritura creativa, la búsqueda de respuestas generales, la edición y el resumen.

Consideraciones

  • Para obtener seguridad lista para producción, integra DeepSeek R1 (0528) con Model Armor, que analiza las instrucciones y respuestas de los LLM en busca de diversos riesgos de seguridad.

Ir a la tarjeta de modelo de DeepSeek R1 (0528)

Usa modelos de DeepSeek

Puedes usar comandos curl para enviar solicitudes al extremo de Vertex AI con los siguientes nombres de modelos:

  • Para DeepSeek-V3.1, usa deepseek-v3.1-maas
  • Para DeepSeek R1 (0528), usa deepseek-r1-0528-maas

Para obtener información sobre cómo realizar llamadas de transmisión y no transmisión a los modelos de DeepSeek, consulta Cómo llamar a las APIs de modelos abiertos.

Disponibilidad y cuotas de la región del modelo DeepSeek

En el caso de los modelos DeepSeek, se aplica una cuota para cada región en la que el modelo esté disponible. La cuota se especifica en consultas por minuto (QPM).

Modelo Región Cuotas Longitud del contexto
DeepSeek-V3.1
us-west2
163,840
DeepSeek R1 (0528)
us-central1
163,840

Si quieres aumentar tus cuotas para la IA generativa en Vertex AI, puedes usar la Google Cloud consola para solicitar un aumento de la cuota. Para obtener más información sobre las cuotas, consulta la descripción general de Cloud Quotas.

¿Qué sigue?