Présentation de l'IA générative

Ce document décrit les fonctions d'intelligence artificielle (IA) générative compatibles avec BigQuery. Ces fonctions acceptent les entrées en langage naturel et utilisent des modèles Vertex AI pré-entraînés et des modèles BigQuery intégrés.

Présentation

BigQuery propose diverses fonctions d'IA pour vous aider à effectuer des tâches telles que les suivantes :

  • Générer des contenus créatifs
  • Analysez du texte ou des données non structurées (comme des images), détectez les sentiments et répondez à des questions.
  • Résume les idées ou les impressions clés véhiculées par le contenu.
  • Extraire des données structurées à partir de texte
  • Classer du texte ou des données non structurées dans des catégories définies par l'utilisateur.
  • Générez des embeddings pour rechercher du texte, des images et des vidéos similaires.
  • Évaluez les entrées pour les classer par qualité, similarité ou d'autres critères.

Voici les catégories de fonctions d'IA qui vous aideront à accomplir ces tâches :

  • Fonctions d'IA à usage général : ces fonctions vous offrent un contrôle et une transparence totaux sur le choix du modèle, de l'invite et des paramètres à utiliser.

    • Effectuer une inférence LLM, par exemple pour répondre à des questions sur vos données

      • AI.GENERATE est la fonction d'inférence la plus flexible, qui vous permet d'analyser n'importe quelles données non structurées.
      • AI.GENERATE_TEXT est une version tabulaire de AI.GENERATE qui est également compatible avec les modèles partenaires et les modèles ouverts.
    • Générer des résultats structurés, comme extraire des noms, des adresses ou des descriptions d'objets à partir de texte, de documents ou d'images.

      • AI.GENERATE, lorsque vous spécifiez un schéma de sortie.
      • AI.GENERATE_TABLE est une version de AI.GENERATE qui renvoie une valeur de table, appelle un modèle distant et vous permet de spécifier un schéma de sortie personnalisé.
      • Si votre schéma de sortie ne comporte qu'un seul champ, vous pouvez utiliser l'une des fonctions spécialisées suivantes : AI.GENERATE_BOOL, AI.GENERATE_DOUBLE ou AI.GENERATE_INT.
    • Générez des embeddings pour la recherche sémantique et le clustering.

      • AI.EMBED : créez un embedding à partir de données textuelles ou d'image.
      • AI.GENERATE_EMBEDDING : fonction table qui ajoute une colonne de données de texte, d'image, audio, vidéo ou de document intégrées à votre table.
  • Fonctions d'IA gérées : ces fonctions ont une syntaxe simplifiée et sont optimisées pour le coût et la qualité. BigQuery choisit un modèle pour vous.

    • Filtrer vos données avec des conditions en langage naturel

      • AI.IF
    • Évaluer les entrées, par exemple en fonction de la qualité ou du sentiment

      • AI.SCORE
    • Classer les entrées dans des catégories définies par l'utilisateur

      • AI.CLASSIFY
  • Fonctions spécifiques à une tâche : ces fonctions utilisent les API Cloud AI pour vous aider à effectuer des tâches telles que le traitement du langage naturel, la traduction automatique, le traitement de documents, la transcription audio et la vision par ordinateur.

Fonctions d'IA à usage général

Les fonctions d'IA à usage général vous offrent un contrôle et une transparence complets sur le choix du modèle, de l'invite et des paramètres à utiliser. Leur sortie inclut des informations détaillées sur l'appel au modèle, y compris l'état et la réponse complète du modèle, qui peuvent inclure des informations sur la classification de sécurité ou des citations.

Effectuer l'inférence du LLM

La fonction AI.GENERATE est une fonction d'inférence flexible qui envoie des requêtes à un modèle Gemini Vertex AI et renvoie la réponse de ce modèle. Vous pouvez utiliser cette fonction pour analyser des données textuelles, d'images, audio, vidéo ou PDF. Par exemple, vous pouvez analyser des images d'ameublement pour générer du texte pour une colonne design_type, afin que le SKU d'ameublement ait une description associée, telle que mid-century modern ou farmhouse.

Vous pouvez effectuer des tâches d'IA générative à l'aide de modèles distants dans BigQuery ML pour référencer des modèles déployés ou hébergés dans Vertex AI avec la fonction table AI.GENERATE_TEXT. Vous pouvez utiliser les types de modèles à distance suivants :

Utilisez les rubriques suivantes pour essayer la génération de texte dans BigQuery ML :

Pour certains modèles, vous pouvez éventuellement choisir de configurer le réglage supervisé, qui vous permet d'entraîner le modèle sur vos propres données afin de l'adapter à votre cas d'utilisation. Toutes les inférences s'effectuent dans Vertex AI. Les résultats sont stockés dans BigQuery.

Générer des données structurées

La génération de données structurées est très semblable à la génération de texte, sauf que vous pouvez mettre en forme la réponse du modèle en spécifiant un schéma SQL. Par exemple, vous pouvez générer un tableau contenant le nom, le numéro de téléphone, l'adresse, la demande et le devis d'un client à partir de la transcription d'un appel téléphonique.

Vous pouvez générer des données structurées de différentes manières :

Générer des embeddings

Un embedding est un vecteur numérique de grande dimension qui représente une entité donnée, comme un exemple de texte ou un fichier audio. La génération d'embeddings vous permet de capturer la sémantique de vos données de manière à faciliter le raisonnement et la comparaison des données.

Voici quelques cas d'utilisation courants de la génération d'embeddings :

  • Utiliser la génération augmentée par récupération (RAG) pour augmenter les réponses du modèle aux requêtes des utilisateurs en référençant des données supplémentaires provenant d'une source fiable. Le RAG offre une meilleure précision factuelle et une meilleure cohérence des réponses. Il permet également d'accéder à des données plus récentes que celles utilisées pour entraîner le modèle.
  • Effectuer une recherche multimodale. Par exemple, utiliser une saisie de texte pour rechercher des images.
  • Effectuer une recherche sémantique pour trouver des éléments similaires à des fins de recommandation, de substitution et de déduplication des enregistrements.
  • Créer des embeddings à utiliser avec un modèle de k-moyennes pour le clustering.

Pour savoir comment générer des embeddings et les utiliser pour effectuer ces tâches, consultez Présentation des embeddings et de Vector Search.

Fonctions d'IA gérées

Les fonctions d'IA gérées sont conçues pour automatiser les tâches de routine, comme la classification, le tri ou le filtrage. Ces fonctions utilisent Gemini et ne nécessitent aucune personnalisation. BigQuery utilise le prompt engineering et sélectionne le modèle et les paramètres appropriés à la tâche spécifique pour optimiser la qualité et la cohérence de vos résultats. Chaque fonction renvoie une valeur scalaire, telle qu'un BOOL, un FLOAT64 ou un STRING, et n'inclut pas d'informations supplémentaires sur l'état du modèle. Les fonctions d'IA gérées suivantes sont disponibles :

  • AI.IF : filtrez les données textuelles ou multimodales, par exemple dans une clause WHERE ou JOIN, en fonction d'une requête. Par exemple, vous pouvez filtrer les descriptions de produits pour n'afficher que celles qui décrivent un article qui ferait un bon cadeau.
  • AI.SCORE : évaluez les entrées en fonction d'une requête pour classer les lignes par qualité, similarité ou autres critères. Vous pouvez utiliser cette fonction dans une clause ORDER BY pour extraire les K premiers éléments en fonction du score. Par exemple, vous pouvez trouver les 10 avis les plus positifs ou les plus négatifs pour un produit.
  • AI.CLASSIFY : classer du texte dans des catégories définies par l'utilisateur. Vous pouvez utiliser cette fonction dans une clause GROUP BY pour regrouper les entrées selon les catégories que vous définissez. Par exemple, vous pouvez classer les demandes d'assistance selon qu'elles concernent la facturation, la livraison, la qualité des produits ou autre chose.

Pour consulter un tutoriel contenant des exemples d'utilisation de ces fonctions, consultez Effectuer une analyse sémantique avec des fonctions d'IA gérées.

Pour obtenir un tutoriel de notebook expliquant comment utiliser les fonctions d'IA gérées et à usage général, consultez Analyse sémantique avec les fonctions d'IA.

Fonctions spécifiques à une tâche

En plus des fonctions plus générales décrites dans les sections précédentes, vous pouvez développer des solutions spécifiques à une tâche dans BigQuery ML à l'aide des API d'IA Cloud. Les tâches suivantes sont acceptées :

Pour en savoir plus, consultez la présentation des solutions spécifiques à une tâche.

Emplacements

Les zones géographiques acceptées pour les modèles de génération et d'embedding de texte varient en fonction du type et de la version du modèle que vous utilisez. Pour en savoir plus, consultez Emplacements.

Tarifs

Les ressources de calcul que vous utilisez pour exécuter des requêtes sur des modèles vous sont facturées. Les modèles distants appellent les modèles Vertex AI. Par conséquent, les requêtes envoyées aux modèles distants entraînent également des frais Vertex AI.

Pour en savoir plus, consultez la page Tarifs de BigQuery ML.

Suivre les coûts

Les fonctions d'IA générative de BigQuery fonctionnent en envoyant des requêtes à Vertex AI, ce qui peut entraîner des coûts. Pour suivre les coûts Vertex AI générés par un job que vous exécutez dans BigQuery, procédez comme suit :

  1. Affichez vos rapports sur la facturation dans Cloud Billing.
  2. Utilisez des filtres pour affiner vos résultats.

    Pour les services, sélectionnez Vertex AI.

  3. Pour afficher les frais d'un job spécifique, filtrez par libellé.

    Définissez la clé sur bigquery_job_id_prefix et la valeur sur l'ID de job de votre job. Si votre ID de tâche comporte plus de 63 caractères, n'utilisez que les 63 premiers. Si votre ID de job contient des majuscules, remplacez-les par des minuscules. Vous pouvez également associer des jobs à un libellé personnalisé pour les retrouver plus facilement par la suite.

L'affichage de certains frais dans Cloud Billing peut prendre jusqu'à 24 heures.

Surveillance

Pour mieux comprendre le comportement des fonctions d'IA que vous appelez dans BigQuery, vous pouvez activer la journalisation des requêtes et des réponses. Pour consigner l'intégralité de la requête et de la réponse envoyées à Vertex AI et reçues de Vertex AI, procédez comme suit :

  1. Activez les journaux des requêtes et réponses dans Vertex AI. Les journaux sont stockés dans BigQuery. Vous devez activer la journalisation séparément pour chaque modèle de base et chaque région. Pour consigner les requêtes exécutées dans la région us, spécifiez la région us-central1 dans votre requête. Pour consigner les requêtes exécutées dans la région eu, spécifiez la région europe-west4 dans votre requête.

  2. Exécutez une requête à l'aide d'une fonction d'IA qui appelle Vertex AI à l'aide du modèle pour lequel vous avez activé la journalisation à l'étape précédente.

  3. Pour afficher la requête et la réponse Vertex AI complètes, interrogez votre table de journaux pour les lignes où le champ labels.bigquery_job_id_prefix de la colonne full_request correspond aux 63 premiers caractères de votre ID de tâche. Vous pouvez également utiliser un libellé de requête personnalisé pour vous aider à retrouver la requête dans les journaux.

    Par exemple, vous pouvez utiliser une requête semblable à celle-ci :

    SELECT *
    FROM `my_project.my_dataset.request_response_logging`
    WHERE JSON_VALUE(full_request, '$.labels.bigquery_job_id_prefix') = 'bquxjob_123456...';
    

Étapes suivantes