Los modelos de DeepSeek en Vertex AI ofrecen modelos totalmente gestionados y sin servidor como APIs. Para usar un modelo de DeepSeek en Vertex AI, envía una solicitud directamente al endpoint de la API de Vertex AI. Como los modelos de DeepSeek usan una API gestionada, no es necesario aprovisionar ni gestionar ninguna infraestructura.
Puedes transmitir tus respuestas para reducir la latencia que perciben los usuarios finales. Una respuesta en streaming usa eventos enviados por el servidor (SSE) para enviar la respuesta de forma incremental.
Modelos de DeepSeek disponibles
Los siguientes modelos están disponibles en DeepSeek para usarlos en Vertex AI. Para acceder a un modelo de DeepSeek, ve a la tarjeta de modelo de Model Garden.
DeepSeek-V3.1
DeepSeek-V3.1 es un modelo híbrido que admite tanto el modo de reflexión como el modo sin reflexión. En comparación con la versión anterior, esta actualización ofrece mejoras en los modos de pensamiento híbrido, la llamada a herramientas y la eficiencia del pensamiento.
Ir a la tarjeta del modelo DeepSeek-V3.1
DeepSeek R1 (0528)
DeepSeek R1 (0528) es la versión más reciente del modelo DeepSeek R1. En comparación con DeepSeek-R1, ha mejorado significativamente la profundidad del razonamiento y las capacidades de inferencia. DeepSeek R1 (0528) destaca en una amplia gama de tareas, como la escritura creativa, la respuesta a preguntas generales, la edición y la creación de resúmenes.
Cuestiones importantes
- Para disfrutar de una seguridad lista para producción, integra DeepSeek R1 (0528) con Model Armor, que analiza las peticiones y respuestas de los LLMs para detectar diversos riesgos de seguridad.
Ir a la tarjeta del modelo DeepSeek R1 (0528)
Usar modelos de DeepSeek
Puedes usar comandos curl para enviar solicitudes al endpoint de Vertex AI con los siguientes nombres de modelo:
- Para DeepSeek-V3.1, usa
deepseek-v3.1-maas
- Para DeepSeek R1 (0528), usa
deepseek-r1-0528-maas
.
Para saber cómo hacer llamadas de streaming y no de streaming a los modelos de DeepSeek, consulta Llamar a APIs de modelos abiertos.
Disponibilidad y cuotas de las regiones del modelo DeepSeek
En el caso de los modelos de DeepSeek, se aplica una cuota a cada región en la que esté disponible el modelo. La cuota se especifica en consultas por minuto (CPM).
Modelo | Región | Cuotas | Longitud del contexto |
---|---|---|---|
DeepSeek-V3.1 | |||
us-west2 |
|
163.840 | |
DeepSeek R1 (0528) | |||
us-central1 |
|
163.840 |
Si quieres aumentar alguna de tus cuotas de IA generativa en Vertex AI, puedes solicitarlo a través de la Google Cloud consola. Para obtener más información sobre las cuotas, consulta la descripción general de las cuotas de Cloud.
Siguientes pasos
- Consulta cómo llamar a APIs de modelos abiertos.