Modelos MiniMax

Los modelos de MiniMax en Vertex AI ofrecen modelos totalmente gestionados y sin servidor como APIs. Para usar un modelo de MiniMax en Vertex AI, envía una solicitud directamente al endpoint de la API de Vertex AI. Como los modelos de MiniMax usan una API gestionada, no es necesario aprovisionar ni gestionar infraestructura.

Puedes transmitir tus respuestas para reducir la latencia percibida por el usuario final. Una respuesta en streaming usa eventos enviados por el servidor (SSE) para enviar la respuesta de forma incremental.

Modelos de MiniMax disponibles

MiniMax ofrece los siguientes modelos para usarlos en Vertex AI. Para acceder a un modelo de MiniMax, ve a la tarjeta de modelo de Model Garden.

MiniMax M2

MiniMax M2 es un modelo de MiniMax diseñado para tareas relacionadas con agentes y código. Está diseñado para flujos de trabajo de desarrollo integrales y tiene sólidas funciones para planificar y ejecutar tareas complejas de llamadas a herramientas. El modelo se ha optimizado para ofrecer un equilibrio entre rendimiento, coste y velocidad de inferencia.

Ir a la tarjeta de modelo de MiniMax M2

Usar modelos MiniMax

Puedes usar comandos curl para enviar solicitudes al endpoint de Vertex AI con los siguientes nombres de modelo:

  • En MiniMax M2, usa minimax-m2-maas

Para saber cómo hacer llamadas de streaming y no de streaming a los modelos de MiniMax, consulta Llamar a APIs de modelos abiertos.

Disponibilidad y cuotas del modelo MiniMax por región

En el caso de los modelos MiniMax, se aplica una cuota a cada región en la que esté disponible el modelo. La cuota se especifica en consultas por minuto (CPM).

Modelo Región Cuotas Longitud del contexto Salida máxima
MiniMax M2
global endpoint
196.608 4096

Si quieres aumentar alguna de tus cuotas de IA generativa en Vertex AI, puedes solicitarlo a través de la Google Cloud consola. Para obtener más información sobre las cuotas, consulta la descripción general de las cuotas de Cloud.

Siguientes pasos