À propos du réglage supervisé pour les modèles Gemini

L'optimisation supervisée est une bonne option lorsque vous avez une tâche bien définie avec des données étiquetées disponibles. Cette approche est particulièrement efficace pour les applications spécifiques à un domaine, où le langage ou le contenu diffèrent considérablement des données sur lesquelles le modèle volumineux a été initialement entraîné. Vous pouvez ajuster les types de données texte, image, audio et document.

Le réglage supervisé adapte le comportement du modèle à un ensemble de données étiquetées. Ce processus ajuste les pondérations du modèle afin de minimiser la différence entre ses prédictions et les étiquettes réelles. Par exemple, cela peut améliorer les performances du modèle pour les types de tâches suivants :

  • Classification
  • Synthèse
  • Systèmes de questions-réponses extractifs
  • Chat

Pour en savoir plus sur les principaux cas d'utilisation du réglage, consultez l'article de blog Des centaines d'organisations affinent les modèles Gemini. Voici leurs cas d'utilisation préférés.

Pour en savoir plus, consultez Quand utiliser les réglages supervisés pour Gemini.

Modèles compatibles

Les modèles Gemini suivants sont compatibles avec l'affinage supervisé :

Pour les modèles qui prennent en charge la réflexion, nous vous suggérons de désactiver le budget de réflexion ou de le définir sur sa valeur la plus basse. Cela peut améliorer les performances et réduire les coûts pour les tâches ajustées. Lors du réglage supervisé, le modèle apprend à partir des données d'entraînement et omet le processus de réflexion. Par conséquent, le modèle ajusté obtenu peut effectuer efficacement les tâches ajustées sans budget de réflexion.

Limites

Gemini 2.5 Flash
Gemini 2.5 Flash-Lite

Spécification Valeur
Nombre maximal de jetons d'entraînement d'entrée et de sortie 131 072
Nombre maximal de jetons d'entrée et de sortie pour le service Identique au modèle Gemini de base
Taille maximale de l'ensemble de données de validation 5 000 exemples
Taille maximale du fichier de l'ensemble de données d'entraînement 1 Go pour JSONL
Taille maximale de l'ensemble de données d'entraînement 1 million d'exemples textuels ou 300 000 exemples multimodaux
Taille de l'adaptateur Les valeurs acceptées sont 1, 2, 4, 8 et 16.

Gemini 2.5 Pro

Spécification Valeur
Nombre maximal de jetons d'entraînement d'entrée et de sortie 131 072
Nombre maximal de jetons d'entrée et de sortie pour le service Identique au modèle Gemini de base
Taille maximale de l'ensemble de données de validation 5 000 exemples
Taille maximale du fichier de l'ensemble de données d'entraînement 1 Go pour JSONL
Taille maximale de l'ensemble de données d'entraînement 1 million d'exemples textuels ou 300 000 exemples multimodaux
Taille de l'adaptateur Les valeurs acceptées sont 1, 2, 4 et 8.

Gemini 2.0 Flash
Gemini 2.0 Flash-Lite

Spécification Valeur
Nombre maximal de jetons d'entraînement d'entrée et de sortie 131 072
Nombre maximal de jetons d'entrée et de sortie pour le service Identique au modèle Gemini de base
Taille maximale de l'ensemble de données de validation 5 000 exemples
Taille maximale du fichier de l'ensemble de données d'entraînement 1 Go pour JSONL
Taille maximale de l'ensemble de données d'entraînement 1 million d'exemples textuels ou 300 000 exemples multimodaux
Taille de l'adaptateur Les valeurs acceptées sont 1, 2, 4 et 8.

Problèmes connus

  • L'application de la génération contrôlée lors de l'envoi de requêtes d'inférence à des modèles Gemini réglés peut entraîner une diminution de la qualité du modèle en raison d'un désalignement des données lors du réglage et de l'inférence. Lors de l'ajustement, la génération contrôlée n'est pas appliquée. Le modèle ajusté n'est donc pas en mesure de bien gérer la génération contrôlée au moment de l'inférence. L'affinage supervisé permet de personnaliser efficacement le modèle pour générer des sorties structurées. Vous n'avez donc pas besoin d'appliquer la génération contrôlée lorsque vous envoyez des requêtes d'inférence sur des modèles ajustés.

Cas d'utilisation du réglage supervisé

Les modèles de fondation fonctionnent bien lorsque la sortie ou la tâche attendue peut être définie de manière claire et concise dans une requête et que celle-ci génère systématiquement le résultat attendu. Si vous souhaitez qu'un modèle apprenne quelque chose de spécifique ou de différent des modèles généraux, vous pouvez envisager de régler ce modèle. Vous pouvez par exemple utiliser les réglages de modèles pour apprendre au modèle ce qui suit :

  • Structures ou formats spécifiques pour générer la sortie.
  • Comportements spécifiques, par exemple lorsqu'il s'agit de fournir une sortie sobre ou détaillée.
  • Sorties personnalisées spécifiques pour des types d'entrées spécifiques.

Les exemples suivants sont des cas d'utilisation difficiles à capturer seulement avec des instructions de requête :

  • Classification : la réponse attendue est un mot ou une expression spécifique.

     :

    Le réglage du modèle peut empêcher le modèle de générer des réponses détaillées.

  • Synthèse : le résumé respecte un format spécifique. Par exemple, vous devrez peut-être supprimer d'un résumé de chat les informations permettant d'identifier personnellement l'utilisateur.

     :

    Ce format de remplacement des noms des locuteurs par #Person1 et #Person2 est difficile à décrire, et le modèle de fondation peut ne pas produire naturellement une telle réponse.

  • Systèmes de questions-réponses extractifs : la question porte sur un contexte et la réponse est une sous-chaîne du contexte.

     :

    La réponse "Dernière période glaciaire la plus longue" est une expression spécifique du contexte.

  • Chat : vous devez personnaliser la réponse du modèle pour suivre un persona, un rôle ou un caractère.

Vous pouvez également régler un modèle dans les situations suivantes :

  • Les requêtes ne produisent pas suffisamment les résultats souhaités.
  • La tâche est trop compliquée à définir dans une requête. Par exemple, vous souhaitez que le modèle effectue un clonage de comportement pour un comportement difficile à expliquer dans une requête.
  • Vous avez des intuitions complexes sur une tâche difficile à formaliser dans une requête.
  • Vous souhaitez réduire la longueur du contexte en supprimant les exemples few-shot.

Configurer une région de job de réglage

Les données utilisateur, telles que l'ensemble de données transformé et le modèle réglé, sont stockées dans la région du job d'optimisation. Lors de l'ajustement, le calcul peut être transféré vers d'autres régions US ou EU pour les accélérateurs disponibles. Le déchargement est transparent pour les utilisateurs.

  • Si vous utilisez le SDK Vertex AI, vous pouvez spécifier la région lors de l'initialisation. Exemple :

    import vertexai
    vertexai.init(project='myproject', location='us-central1')
    
  • Si vous créez un job de réglage supervisé en envoyant une requête POST à l'aide de tuningJobs.create, vous utilisez l'URL pour spécifier la région dans laquelle le job de réglage est exécuté. Par exemple, dans l'URL suivante, vous spécifiez une région en remplaçant les deux instances de TUNING_JOB_REGION par la région où le job est exécuté.

     https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
    
  • Si vous utilisez la consoleGoogle Cloud , vous pouvez sélectionner le nom de la région dans le champ déroulant Région de la page Informations sur le modèle. Il s'agit de la même page que celle sur laquelle vous sélectionnez le modèle de base et le nom d'un modèle réglé.

Évaluer les modèles réglés

Vous pouvez évaluer les modèles ajustés de différentes manières :

  • Métriques de validation et de réglage : évaluez le modèle réglé à l'aide des métriques de validation et de réglage une fois le job de réglage terminé.

  • Évaluation intégrée avec Gen AI Evaluation Service (preview) : configurez des jobs de réglage pour exécuter automatiquement des évaluations à l'aide de Gen AI Evaluation Service pendant le réglage. Les interfaces, modèles et régions suivants sont compatibles avec l'intégration du réglage au service d'évaluation de l'IA générative :

    • Interfaces compatibles : SDK Google Gen AI et API REST.

    • Modèles compatibles : gemini-2.5-pro, gemini-2.5-flash et gemini-2.5-flash-lite.

    • Régions compatibles : pour obtenir la liste des régions compatibles, consultez Régions compatibles.

Quota

Le quota est appliqué au nombre de jobs de réglage simultanés. Chaque projet est associé à un quota par défaut pour exécuter au moins un job de réglage. Il s'agit d'un quota mondial, partagé entre toutes les régions disponibles et tous les modèles compatibles. Si vous souhaitez exécuter plus de jobs simultanément, vous devez demander un quota supplémentaire pour Global concurrent tuning jobs.

Si vous configurez le service d'évaluation de l'IA générative pour qu'il exécute automatiquement les évaluations pendant l'ajustement, consultez les quotas du service d'évaluation de l'IA générative.

Tarifs

Pour connaître les tarifs du fine-tuning supervisé de Gemini, consultez Tarifs Vertex AI.

Le nombre de jetons d'entraînement est calculé en multipliant le nombre de jetons dans votre ensemble de données d'entraînement par le nombre d'époques. Après le réglage, les coûts d'inférence (demande de prédiction) du modèle réglé continuent de s'appliquer. Les tarifs d'inférence sont les mêmes pour chaque version stable de Gemini. Pour en savoir plus, consultez Versions de modèles Gemini stables et disponibles.

Si vous configurez le service d'évaluation de l'IA générative pour qu'il s'exécute automatiquement pendant l'ajustement, les évaluations sont facturées en tant que tâches de prédiction par lot. Pour en savoir plus, reportez-vous à la page Tarifs.

Étapes suivantes