Vertex AI admite una lista seleccionada de modelos abiertos como modelos gestionados. Estos modelos abiertos se pueden usar con Vertex AI como modelo como servicio (MaaS) y se ofrecen como una API gestionada. Cuando usas un modelo abierto gestionado, sigues enviando tus solicitudes a los endpoints de Vertex AI. Los modelos abiertos gestionados no tienen servidor, por lo que no es necesario aprovisionar ni gestionar infraestructura.
Los modelos abiertos gestionados se pueden descubrir mediante Model Garden. También puedes desplegar modelos con Model Garden. Para obtener más información, consulta Descubrir modelos de IA en Model Garden.
Para poder usar modelos abiertos, debes conceder acceso de usuario a los modelos abiertos.
Modelos abiertos
Los siguientes modelos abiertos se ofrecen como APIs gestionadas en Vertex AI Model Garden (MaaS):
Nombre del modelo | Modalidad | Descripción | Guía de inicio rápido |
---|---|---|---|
gpt-oss 120B | Idioma | Un modelo de 120.000 millones de parámetros que ofrece un alto rendimiento en tareas de razonamiento. | Tarjeta de modelo |
gpt-oss 20B | Idioma | Un modelo de 20.000 millones de parámetros optimizado para la eficiencia y el despliegue en hardware de consumo y periférico. | Tarjeta de modelo |
Qwen3-Next-80B Thinking | Idioma, código | Un modelo de la familia Qwen3-Next, especializado en la resolución de problemas complejos y el razonamiento profundo. | Tarjeta de modelo |
Qwen3-Next-80B Instruct | Idioma, código | Un modelo de la familia Qwen3-Next, especializado en seguir comandos específicos. | Tarjeta de modelo |
Qwen3 Coder | Idioma, código | Un modelo de peso abierto desarrollado para tareas avanzadas de desarrollo de software. | Tarjeta de modelo |
Qwen3 235B | Idioma | Un modelo de peso abierto con una capacidad de "pensamiento híbrido" para alternar entre el razonamiento metódico y la conversación rápida. | Tarjeta de modelo |
DeepSeek-V3.1 | Idioma | El modelo híbrido de DeepSeek, que admite tanto el modo de reflexión como el modo sin reflexión. | Tarjeta de modelo |
DeepSeek R1 (0528) | Idioma | La versión más reciente del modelo DeepSeek R1 de DeepSeek. | Tarjeta de modelo |
Llama 4 Maverick 17B-128E | Idioma, visión | El modelo de Llama 4 más grande y potente, que ofrece funciones de programación, razonamiento e imagen. Llama 4 Maverick 17B-128E es un modelo multimodal que usa la arquitectura de Mixture-of-Experts (MoE) y la fusión temprana. | Tarjeta de modelo |
Llama 4 Scout 17B-16E | Idioma, visión | Llama 4 Scout 17B-16E ofrece resultados de vanguardia para su clase de tamaño, superando a las generaciones anteriores de Llama y a otros modelos abiertos y propietarios en varias comparativas. Llama 4 Scout 17B-16E es un modelo multimodal que usa la arquitectura de Mixture-of-Experts (MoE) y la fusión temprana. | Tarjeta de modelo |
Llama 3.3 | Idioma | Llama 3.3 es un modelo de 70.000 millones de parámetros de solo texto ajustado para instrucciones que ofrece un rendimiento mejorado en comparación con Llama 3.1 70B y Llama 3.2 90B cuando se usa en aplicaciones de solo texto. Además, en algunas aplicaciones, Llama 3.3 70B se acerca al rendimiento de Llama 3.1 405B. | Tarjeta de modelo |
Llama 3.2 (vista previa) | Idioma, visión | Un modelo multimodal de tamaño medio con 90.000 millones de parámetros que puede interpretar imágenes, como analizar gráficos y generar descripciones de imágenes. | Tarjeta de modelo |
Llama 3.1 | Idioma |
Una colección de LLMs multilingües optimizados para casos prácticos de diálogo multilingüe, que superan a muchos de los modelos de chat de código abierto y cerrados disponibles en las métricas comunes del sector. Llama 3.1 405B está disponible para el público general. Llama 3.1 8B y Llama 3.1 70B están en versión preliminar. |
Tarjeta de modelo |
Los siguientes modelos de embeddings abiertos se ofrecen como APIs gestionadas en Vertex AI Model Garden (MaaS):
Nombre del modelo | Descripción | Dimensiones de salida | Longitud máxima de la secuencia | Idiomas de texto admitidos | Guía de inicio rápido |
---|---|---|---|---|---|
multilingual-e5-small | Forma parte de la familia de modelos de inserción de texto E5. La variante pequeña contiene 12 capas. | Hasta 384 | 512 tokens | Idiomas admitidos | Tarjeta de modelo |
multilingual-e5-large | Forma parte de la familia de modelos de inserción de texto E5. La variante grande contiene 24 capas. | Hasta 1024 | 512 tokens | Idiomas admitidos | Tarjeta de modelo |
Cumplimiento normativo de modelos abiertos
Las certificaciones de IA generativa en Vertex AI siguen siendo válidas cuando se usan modelos abiertos como API gestionada con Vertex AI. Si necesita más información sobre los modelos, puede consultar la tarjeta de modelo correspondiente o ponerse en contacto con el editor del modelo.
Tus datos se almacenan en reposo en la región o multirregión seleccionada para los modelos abiertos en Vertex AI, pero la regionalización del tratamiento de datos puede variar. Para ver una lista detallada de los compromisos de tratamiento de datos de los modelos abiertos, consulta el artículo Residencia de los datos de los modelos abiertos.
Las peticiones de los clientes y las respuestas de los modelos no se comparten con terceros cuando se usa la API de Vertex AI, incluidos los modelos abiertos. Google solo trata los datos de los clientes de acuerdo con las instrucciones que le indiquen, tal como se describe con más detalle en nuestra Adenda sobre Tratamiento de Datos de Cloud.
Siguientes pasos
- Antes de usar modelos abiertos, concede acceso de usuario a los modelos abiertos.
- Consulta cómo llamar a APIs de modelos abiertos.