Présentation de l'IA générative
Ce document décrit les fonctions d'intelligence artificielle (IA) générative compatibles avec BigQuery. Ces fonctions acceptent les entrées en langage naturel et utilisent des modèles Vertex AI pré-entraînés et des modèles BigQuery intégrés.
Présentation
BigQuery propose diverses fonctions d'IA pour vous aider à effectuer des tâches telles que les suivantes :
- Générer des contenus créatifs
- Analysez du texte ou des données non structurées (comme des images), détectez les sentiments et répondez à des questions.
- Résume les idées ou les impressions clés véhiculées par le contenu.
- Extraire des données structurées à partir de texte
- Classer du texte ou des données non structurées dans des catégories définies par l'utilisateur.
- Générez des embeddings pour rechercher du texte, des images et des vidéos similaires.
- Évaluez les entrées pour les classer par qualité, similarité ou d'autres critères.
Voici les catégories de fonctions d'IA qui vous aideront à accomplir ces tâches :
Fonctions d'IA à usage général : ces fonctions vous offrent un contrôle et une transparence totaux sur le choix du modèle, de l'invite et des paramètres à utiliser.
Effectuer une inférence LLM, par exemple pour répondre à des questions sur vos données
AI.GENERATEest la fonction d'inférence la plus flexible, qui vous permet d'analyser n'importe quelles données non structurées.AI.GENERATE_TEXTest une version tabulaire deAI.GENERATEqui est également compatible avec les modèles partenaires et les modèles ouverts.
Générer des résultats structurés, comme extraire des noms, des adresses ou des descriptions d'objets à partir de texte, de documents ou d'images.
AI.GENERATE, lorsque vous spécifiez un schéma de sortie.AI.GENERATE_TABLEest une version deAI.GENERATEqui renvoie une valeur de table, appelle un modèle distant et vous permet de spécifier un schéma de sortie personnalisé.- Si votre schéma de sortie ne comporte qu'un seul champ, vous pouvez utiliser l'une des fonctions spécialisées suivantes :
AI.GENERATE_BOOL,AI.GENERATE_DOUBLEouAI.GENERATE_INT.
Générez des embeddings pour la recherche sémantique et le clustering.
AI.EMBED: créez un embedding à partir de données textuelles ou d'image.AI.GENERATE_EMBEDDING: fonction table qui ajoute une colonne de données de texte, d'image, audio, vidéo ou de document intégrées à votre table.
Fonctions d'IA gérées : ces fonctions ont une syntaxe simplifiée et sont optimisées pour le coût et la qualité. BigQuery choisit un modèle pour vous.
Filtrer vos données avec des conditions en langage naturel
AI.IF
Évaluer les entrées, par exemple en fonction de la qualité ou du sentiment
AI.SCORE
Classer les entrées dans des catégories définies par l'utilisateur
AI.CLASSIFY
Fonctions spécifiques à une tâche : ces fonctions utilisent les API Cloud AI pour vous aider à effectuer des tâches telles que le traitement du langage naturel, la traduction automatique, le traitement de documents, la transcription audio et la vision par ordinateur.
Fonctions d'IA à usage général
Les fonctions d'IA à usage général vous offrent un contrôle et une transparence complets sur le choix du modèle, de l'invite et des paramètres à utiliser. Leur sortie inclut des informations détaillées sur l'appel au modèle, y compris l'état et la réponse complète du modèle, qui peuvent inclure des informations sur la classification de sécurité ou des citations.
Effectuer l'inférence du LLM
La fonction AI.GENERATE est une fonction d'inférence flexible qui envoie des requêtes à un modèle Gemini Vertex AI et renvoie la réponse de ce modèle. Vous pouvez utiliser cette fonction pour analyser des données textuelles, d'images, audio, vidéo ou PDF. Par exemple, vous pouvez analyser des images d'ameublement pour générer du texte pour une colonne design_type, afin que le SKU d'ameublement ait une description associée, telle que mid-century modern ou farmhouse.
Vous pouvez effectuer des tâches d'IA générative à l'aide de modèles distants dans BigQuery ML pour référencer des modèles déployés ou hébergés dans Vertex AI avec la fonction table AI.GENERATE_TEXT.
Vous pouvez utiliser les types de modèles à distance suivants :
Modèles distants sur l'un des modèles Gemini disponibles en général ou en aperçu pour analyser du contenu texte, image, audio, vidéo ou PDF à partir de tables standards ou de tables d'objets avec une requête que vous fournissez en tant qu'argument de fonction.
Modèles distants sur les modèles partenaires Anthropic Claude, Mistral AI ou Llama, ou sur les modèles ouverts compatibles, pour analyser une requête que vous fournissez dans une requête ou à partir d'une colonne d'une table standard.
Utilisez les rubriques suivantes pour essayer la génération de texte dans BigQuery ML :
- Générez du texte à l'aide d'un modèle Gemini et de la fonction
AI.GENERATE_TEXT. - Générez du texte à l'aide d'un modèle Gemma et de la fonction
AI.GENERATE_TEXT. - Analyser des images avec un modèle Gemini
- Générez du texte à l'aide de la fonction
AI.GENERATE_TEXTavec vos données. - Réglez un modèle à l'aide de vos données.
Pour certains modèles, vous pouvez éventuellement choisir de configurer le réglage supervisé, qui vous permet d'entraîner le modèle sur vos propres données afin de l'adapter à votre cas d'utilisation. Toutes les inférences s'effectuent dans Vertex AI. Les résultats sont stockés dans BigQuery.
Générer des données structurées
La génération de données structurées est très semblable à la génération de texte, sauf que vous pouvez mettre en forme la réponse du modèle en spécifiant un schéma SQL. Par exemple, vous pouvez générer un tableau contenant le nom, le numéro de téléphone, l'adresse, la demande et le devis d'un client à partir de la transcription d'un appel téléphonique.
Vous pouvez générer des données structurées de différentes manières :
La fonction
AI.GENERATEappelle un point de terminaison Vertex AI et peut générer une valeurSTRUCTavec votre schéma personnalisé.Pour l'essayer, découvrez comment utiliser une sortie structurée lorsque vous appelez la fonction
AI.GENERATE.La fonction
AI.GENERATE_TABLEappelle un modèle distant. Il s'agit d'une fonction de valeur de table qui génère une table avec votre schéma personnalisé.Pour essayer de créer des données structurées, consultez Générer des données structurées à l'aide de la fonction
AI.GENERATE_TABLE.Pour un seul champ de sortie, vous pouvez utiliser l'une des fonctions d'inférence spécialisées suivantes :
Générer des embeddings
Un embedding est un vecteur numérique de grande dimension qui représente une entité donnée, comme un exemple de texte ou un fichier audio. La génération d'embeddings vous permet de capturer la sémantique de vos données de manière à faciliter le raisonnement et la comparaison des données.
Voici quelques cas d'utilisation courants de la génération d'embeddings :
- Utiliser la génération augmentée par récupération (RAG) pour augmenter les réponses du modèle aux requêtes des utilisateurs en référençant des données supplémentaires provenant d'une source fiable. Le RAG offre une meilleure précision factuelle et une meilleure cohérence des réponses. Il permet également d'accéder à des données plus récentes que celles utilisées pour entraîner le modèle.
- Effectuer une recherche multimodale. Par exemple, utiliser une saisie de texte pour rechercher des images.
- Effectuer une recherche sémantique pour trouver des éléments similaires à des fins de recommandation, de substitution et de déduplication des enregistrements.
- Créer des embeddings à utiliser avec un modèle de k-moyennes pour le clustering.
Pour savoir comment générer des embeddings et les utiliser pour effectuer ces tâches, consultez Présentation des embeddings et de Vector Search.
Fonctions d'IA gérées
Les fonctions d'IA gérées sont conçues pour automatiser les tâches de routine, comme la classification, le tri ou le filtrage. Ces fonctions utilisent Gemini et ne nécessitent aucune personnalisation. BigQuery utilise le prompt engineering et sélectionne le modèle et les paramètres appropriés à la tâche spécifique pour optimiser la qualité et la cohérence de vos résultats.
Chaque fonction renvoie une valeur scalaire, telle qu'un BOOL, un FLOAT64 ou un STRING, et n'inclut pas d'informations supplémentaires sur l'état du modèle.
Les fonctions d'IA gérées suivantes sont disponibles :
AI.IF: filtrez les données textuelles ou multimodales, par exemple dans une clauseWHEREouJOIN, en fonction d'une requête. Par exemple, vous pouvez filtrer les descriptions de produits pour n'afficher que celles qui décrivent un article qui ferait un bon cadeau.AI.SCORE: évaluez les entrées en fonction d'une requête pour classer les lignes par qualité, similarité ou autres critères. Vous pouvez utiliser cette fonction dans une clauseORDER BYpour extraire les K premiers éléments en fonction du score. Par exemple, vous pouvez trouver les 10 avis les plus positifs ou les plus négatifs pour un produit.AI.CLASSIFY: classer du texte dans des catégories définies par l'utilisateur. Vous pouvez utiliser cette fonction dans une clauseGROUP BYpour regrouper les entrées selon les catégories que vous définissez. Par exemple, vous pouvez classer les demandes d'assistance selon qu'elles concernent la facturation, la livraison, la qualité des produits ou autre chose.
Pour consulter un tutoriel contenant des exemples d'utilisation de ces fonctions, consultez Effectuer une analyse sémantique avec des fonctions d'IA gérées.
Pour obtenir un tutoriel de notebook expliquant comment utiliser les fonctions d'IA gérées et à usage général, consultez Analyse sémantique avec les fonctions d'IA.
Fonctions spécifiques à une tâche
En plus des fonctions plus générales décrites dans les sections précédentes, vous pouvez développer des solutions spécifiques à une tâche dans BigQuery ML à l'aide des API d'IA Cloud. Les tâches suivantes sont acceptées :
- Traitement du langage naturel
- Traduction automatique
- Traitement de documents
- Transcription audio
- Vision par ordinateur
Pour en savoir plus, consultez la présentation des solutions spécifiques à une tâche.
Emplacements
Les zones géographiques acceptées pour les modèles de génération et d'embedding de texte varient en fonction du type et de la version du modèle que vous utilisez. Pour en savoir plus, consultez Emplacements.
Tarifs
Les ressources de calcul que vous utilisez pour exécuter des requêtes sur des modèles vous sont facturées. Les modèles distants appellent les modèles Vertex AI. Par conséquent, les requêtes envoyées aux modèles distants entraînent également des frais Vertex AI.
Pour en savoir plus, consultez la page Tarifs de BigQuery ML.
Suivre les coûts
Les fonctions d'IA générative de BigQuery fonctionnent en envoyant des requêtes à Vertex AI, ce qui peut entraîner des coûts. Pour suivre les coûts Vertex AI générés par un job que vous exécutez dans BigQuery, procédez comme suit :
- Affichez vos rapports sur la facturation dans Cloud Billing.
Utilisez des filtres pour affiner vos résultats.
Pour les services, sélectionnez Vertex AI.
Pour afficher les frais d'un job spécifique, filtrez par libellé.
Définissez la clé sur
bigquery_job_id_prefixet la valeur sur l'ID de job de votre job. Si votre ID de tâche comporte plus de 63 caractères, n'utilisez que les 63 premiers. Si votre ID de job contient des majuscules, remplacez-les par des minuscules. Vous pouvez également associer des jobs à un libellé personnalisé pour les retrouver plus facilement par la suite.
L'affichage de certains frais dans Cloud Billing peut prendre jusqu'à 24 heures.
Surveillance
Pour mieux comprendre le comportement des fonctions d'IA que vous appelez dans BigQuery, vous pouvez activer la journalisation des requêtes et des réponses. Pour consigner l'intégralité de la requête et de la réponse envoyées à Vertex AI et reçues de Vertex AI, procédez comme suit :
Activez les journaux des requêtes et réponses dans Vertex AI. Les journaux sont stockés dans BigQuery. Vous devez activer la journalisation séparément pour chaque modèle de base et chaque région. Pour consigner les requêtes exécutées dans la région
us, spécifiez la régionus-central1dans votre requête. Pour consigner les requêtes exécutées dans la régioneu, spécifiez la régioneurope-west4dans votre requête.Exécutez une requête à l'aide d'une fonction d'IA qui appelle Vertex AI à l'aide du modèle pour lequel vous avez activé la journalisation à l'étape précédente.
Pour afficher la requête et la réponse Vertex AI complètes, interrogez votre table de journaux pour les lignes où le champ
labels.bigquery_job_id_prefixde la colonnefull_requestcorrespond aux 63 premiers caractères de votre ID de tâche. Vous pouvez également utiliser un libellé de requête personnalisé pour vous aider à retrouver la requête dans les journaux.Par exemple, vous pouvez utiliser une requête semblable à celle-ci :
SELECT * FROM `my_project.my_dataset.request_response_logging` WHERE JSON_VALUE(full_request, '$.labels.bigquery_job_id_prefix') = 'bquxjob_123456...';
Étapes suivantes
- Pour découvrir l'IA et le ML dans BigQuery, consultez la page Présentation de l'IA et du ML dans BigQuery.
- Pour en savoir plus sur l'exécution d'inférences sur des modèles de machine learning, consultez la page Présentation de l'inférence de modèle.
- Pour en savoir plus sur les instructions et les fonctions SQL compatibles avec les modèles d'IA générative, consultez Parcours utilisateur de bout en bout pour les modèles d'IA générative.