Formation
-
Entraîner Llama 3-8B à l'aide de JAX, Ray et GKE sur Trillium
Effectuez un entraînement distribué du modèle Llama 3-8B sur GKE à l'aide de JAX, Ray Train et TPU v6e (Trillium) avec MaxText pour une mise à l'échelle multi-hôte optimisée.
-
Pré-entraîner Llama 3.1-70B à l'aide de clusters GKE sur Ironwood
Entraînez le modèle Llama 3.1-70B sur TPU7x (Ironwood) à l'aide du framework MaxText.
-
Pré-entraîner DeepSeek 3-671B à l'aide de clusters GKE sur Ironwood
Entraînez le modèle DeepSeek 3-671B sur TPU7x à l'aide de recettes optimisées pour les architectures MoE (Mixture of Experts) à grande échelle.
-
Pré-entraîner GPT OSS-120B à l'aide de clusters GKE sur Ironwood
Entraînez le modèle de raisonnement GPT OSS-120B sur TPU7x à l'aide de recettes optimisées pour l'entraînement distribué à grande échelle.
-
Pré-entraîner Qwen 3-235B à l'aide de clusters GKE sur Ironwood
Entraînez le modèle MoE Qwen 3-235B-A22B sur TPU7x à l'aide de recettes optimisées pour le raisonnement hautes performances.
-
Pré-entraîner Wan 2.1-14B à l'aide de clusters GKE sur Ironwood
Entraînez le modèle de génération vidéo Wan 2.1-14B sur TPU7x à l'aide de recettes optimisées pour la synthèse vidéo hautes performances.
-
Pré-entraîner GPT3-175B à l'aide de clusters GKE sur Trillium
Entraînez le modèle GPT3-175B sur TPU v6e à l'aide de MaxText et de recettes optimisées pour des performances à grande échelle et rentables.
-
Pré-entraîner Gemma3-12B à l'aide de clusters GKE sur Trillium
Entraînez le modèle Gemma3-12B sur TPU v6e à l'aide de MaxText et de recettes optimisées pour le développement de modèles ouverts hautes performances.
-
Pré-entraîner Llama 3.1-70B à l'aide de clusters GKE sur Trillium
Entraînez Llama 3.1-70B sur TPU v6e à l'aide de MaxText et de recettes optimisées pour l'entraînement de modèles à grande échelle et à haut débit.
-
Pré-entraîner Llama 3.1-8B à l'aide de clusters GKE sur Trillium
Entraînez Llama 3.1-8B à l'aide de MaxText sur TPU v6e avec cette recette optimisée pour le pré-entraînement évolutif et hautes performances.
-
Pré-entraîner Mixtral-8x22B à l'aide de clusters GKE sur Trillium
Entraînez Mixtral-8x22B sur TPU v6e à l'aide de MaxText pour des performances et une efficacité optimisées.
-
Pré-entraîner Mixtral-8x7B à l'aide de clusters GKE sur Trillium
Entraînez Mixtral-8x7B à l'aide de MaxText sur TPU v6e avec des configurations optimisées pour des performances MoE à haut débit sur Google Cloud.
-
Pré-entraîner DeepSeek 3-671B à l'aide de clusters GKE sur v5p
Entraînez et déployez le modèle DeepSeek 3-671B sur TPU v5p à l'aide de MaxText pour des performances optimisées à grande échelle.
-
Pré-entraîner GPT3-175B à l'aide de clusters GKE sur v5p
Entraînez le modèle GPT3-175B sur TPU v5p à l'aide de MaxText avec des configurations optimisées pour l'entraînement distribué à grande échelle.
-
Pré-entraîner Mixtral-8x7B à l'aide de clusters GKE sur v5p
Entraînez Mixtral-8x7B sur TPU v5p à l'aide de MaxText avec des configurations optimisées pour les charges de travail MoE hautes performances.
-
Pré-entraîner SDXL à l'aide de clusters GKE sur v5p
Entraînez et mettez à l'échelle Stable Diffusion XL (SDXL) sur TPU v5p à l'aide de MaxDiffusion pour les charges de travail d'IA générative hautes performances.
Inférence
-
Diffuser Llama 3.1-70B à l'aide de GKE et vLLM sur Trillium
Diffusez des LLM sur GKE à l'aide de TPU v6e et vLLM, avec une mise à l'échelle automatique optimisée et une diffusion de modèles hautes performances sur Google Cloud.
-
Diffuser des LLM à l'aide de GKE avec KubeRay
Diffusez un LLM à l'aide de TPU sur GKE avec le module complémentaire Ray Operator et le framework de diffusion vLLM.
-
Diffuser des LLM ouverts à l'aide de GKE avec Terraform
Provisionnez un environnement d'inférence GKE et déployez des LLM ouverts à l'aide de TPU et d'une architecture Terraform préconfigurée.
-
Diffuser Stable Diffusion XL (SDXL) à l'aide de GKE
Diffusez Stable Diffusion XL (SDXL) sur GKE à l'aide de Cloud TPU et du framework MaxDiffusion pour la génération d'images hautes performances.
-
Diffuser GPT OSS-120B avec vLLM à l'aide de clusters GKE sur Ironwood
Exécutez une inférence hautes performances pour les modèles GPT-OSS sur TPU7x à l'aide de vLLM pour un débit optimisé et une diffusion à faible latence sur Google Cloud.
-
Diffuser Qwen3-Coder-480B avec vLLM à l'aide de clusters GKE sur Ironwood
Diffusez Qwen3-Coder-480B-A35B sur TPU7x à l'aide de vLLM pour une génération et une inférence de code optimisées et à haut débit.
-
Diffuser Llama 3.1-8B avec vLLM sur Trillium
Diffusez Llama 3.1-8B sur TPU v6e à l'aide de vLLM pour une inférence optimisée à faible latence et une diffusion à haut débit.
-
Diffuser Qwen 3 avec vLLM sur Trillium
Diffusez des modèles Qwen 3 sur TPU v6e à l'aide de vLLM pour une inférence évolutive et hautes performances, et un débit optimisé.
-
Diffuser Qwen2.5-32B avec vLLM sur Trillium
Diffusez le modèle Qwen2.5-32B sur TPU v6e à l'aide de vLLM pour une inférence optimisée à haut débit.
-
Diffuser Qwen2.5-VL avec vLLM sur Trillium
Diffusez des modèles de vision-langage Qwen2.5-VL sur TPU v6e à l'aide de vLLM pour une inférence multimodale optimisée et hautes performances.