Glossaire Vertex AI pour l'IA prédictive

  • ensemble d'annotations
    • Un ensemble d'annotations contient les étiquettes associées aux fichiers sources importés dans un ensemble de données. Un ensemble d'annotations est associé à la fois à un type de données et à un objectif (par exemple, vidéo/classification).
  • Point de terminaison de l'API
    • Les points de terminaison de l'API sont un aspect de la configuration du service qui spécifie les adresses réseau, à savoir les points de terminaison du service (par exemple, aiplatform.googleapis.com).
  • Identifiants par défaut de l'application (ADC)
    • Les identifiants par défaut de l'application (ADC, Application Default Credentials) permettent d'obtenir facilement des identifiants d'autorisation à utiliser pour appeler les API Google. Ils conviennent parfaitement lorsque l'appel doit disposer de la même identité et du même niveau d'autorisation pour l'application quel que soit l'utilisateur. Cette approche est recommandée pour autoriser les appels vers les API Google Cloud, surtout lorsque vous créez une application qui est déployée sur des machines virtuelles Google App Engine (GAE) ou Compute Engine. Pour en savoir plus, consultez Fonctionnement des identifiants par défaut de l'application.
  • ANN (voisin le plus proche)
    • Le service ANN (voisin le plus proche) est une solution à grande échelle et à faible latence permettant de trouver des vecteurs (ou plus précisément, des "représentations vectorielles continues") similaires pour un corpus volumineux. Pour en savoir plus, consultez Utiliser Vector Search pour la mise en correspondance sémantique.
  • artefact
    • Un artefact est une entité discrète ou une donnée produite et consommée par un workflow de machine learning. Les ensembles de données, les modèles, les fichiers d'entrée et les journaux d'entraînement sont des exemples d'artefacts.
  • Artifact Registry
    • Artifact Registry est un service universel de gestion d'artefacts. Il s'agit du service recommandé pour la gestion des conteneurs et d'autres artefacts sur Google Cloud. Pour en savoir plus, consultez la page Artifact Registry.
  • Intelligence artificielle (IA)
    • L'intelligence artificielle (ou IA) est l'étude et la conception de machines qui semblent "intelligentes", c'est-à-dire qui imitent des fonctions humaines ou intellectuelles telles que le mouvement mécanique, le raisonnement ou la résolution de problèmes. Le machine learning est l'un des sous-domaines les plus populaires de l'IA. Il utilise une approche statistique et axée sur les données pour créer de l'IA. Toutefois, certaines personnes utilisent ces deux termes de manière interchangeable.
  • authentication
    • Processus de vérification de l'identité d'un client (qui peut être un utilisateur ou un autre processus) afin d'accéder à un système sécurisé. Un client qui a prouvé son identité est dit authentifié. Pour en savoir plus, consultez la page Méthodes d'authentification chez Google.
  • Automatic side-by-side (AutoSxS)
    • L'outil d'évaluation automatique côte à côte (AutoSxS) est un outil d'évaluation assisté par un modèle qui compare deux grands modèles de langage (LLM) côte à côte. Il peut être utilisé pour évaluer les performances des modèles d'IA générative dans Vertex AI Model Registry ou des inférences prégénérées. AutoSxS utilise un outil d'évaluation automatique pour choisir le modèle qui répond le mieux à une requête. AutoSxS est disponible à la demande et évalue les modèles de langage en offrant des performances comparables à celles des évaluateurs humains.
  • AutoML
    • Algorithmes de machine learning qui "apprennent à apprendre" grâce à l'optimisation par boîte noire. Pour en savoir plus, consultez le glossaire de ML.
  • autologging
    • La journalisation automatique est une fonctionnalité des plates-formes et des bibliothèques de machine learning qui enregistre automatiquement les métriques, les paramètres et les artefacts clés pendant le processus d'entraînement du modèle, sans nécessiter d'instrumentation de code explicite. Il simplifie le suivi des tests en capturant automatiquement des informations telles que les hyperparamètres, les métriques d'évaluation (par exemple, la précision et la perte) et les points de contrôle du modèle. Les développeurs peuvent ainsi comparer et reproduire facilement les tests.
  • autorater
    • Un évaluateur automatique est un modèle de langage qui évalue la qualité des réponses du modèle en fonction d'une requête d'inférence d'origine. Il est utilisé dans le pipeline AutoSxS pour comparer les inférences de deux modèles et déterminer lequel a enregistré les meilleures performances. Pour en savoir plus, consultez L'évaluateur automatique.
  • autoscaling
    • L'autoscaling est la capacité d'une ressource de calcul, comme le pool de nœuds de calcul d'un cluster Ray, à ajuster automatiquement le nombre de nœuds à la hausse ou à la baisse en fonction des exigences de la charge de travail, ce qui permet d'optimiser l'utilisation des ressources et les coûts. Pour en savoir plus, consultez Faire évoluer les clusters Ray sur Vertex AI : autoscaling.
  • référence
    • Modèle utilisé comme point de référence pour comparer les performances d'un autre modèle (généralement plus complexe). Par exemple, un modèle de régression logistique peut servir de référence pour un modèle profond. Pour un problème donné, la référence aide les développeurs de modèles à quantifier les performances minimales attendues qu'un nouveau modèle doit atteindre pour être utile. Pour en savoir plus, consultez Ensembles de données de référence et cibles.
  • batch
    • Ensemble d'exemples utilisés dans une itération d'entraînement. La taille de lot détermine le nombre d'exemples dans un lot.
  • Taille du lot
    • Nombre d'exemples dans un lot. Par exemple, la taille de lot de SGD est de 1, tandis que celle d'un mini-lot est généralement comprise entre 10 et 1 000. La taille de lot est habituellement fixée pendant les processus d'entraînement et d'inférence. Toutefois, TensorFlow accepte les tailles de lot dynamiques.
  • inférence par lot
  • biais
    • 1. Stéréotypes, préjudice ou favoritisme envers certains groupes, choses ou personnes par rapport à d'autres. Ces biais peuvent avoir une incidence sur la collecte et l'interprétation des données, ainsi que sur la conception d'un système et la manière dont les utilisateurs interagissent avec celui-ci. 2. Erreur systématique introduite par une procédure d'échantillonnage ou de rapport.
  • bidirectionnel
    • Terme utilisé pour décrire un système qui évalue le texte qui précède et suit une section de texte cible. En revanche, un système unidirectionnel n'évalue que le texte qui précède une section de texte cible.
  • BERT (Bidirectional Encoder Representations from Transformers)
    • BERT est une méthode de pré-entraînement des représentations du langage. Cela signifie que nous entraînons un modèle de "compréhension du langage" à usage général sur un grand corpus de texte (comme Wikipédia), puis que nous utilisons ce modèle pour les tâches de traitement du langage naturel (TLN) en aval qui nous intéressent (comme les systèmes de questions-réponses). BERT surpasse les méthodes précédentes, car il s'agit du premier système non supervisé et profondément bidirectionnel pour le pré-entraînement du NLP.
  • BigQuery
    • BigQuery est un entrepôt de données d'entreprise sans serveur, entièrement géré et hautement évolutif fourni par Google Cloud. Il est conçu pour analyser de vastes ensembles de données à l'aide de requêtes SQL à des vitesses incroyablement élevées. BigQuery permet de bénéficier d'une informatique décisionnelle et d'analyses puissantes sans que les utilisateurs aient à gérer d'infrastructure. Pour en savoir plus, consultez D'un entrepôt de données à une plate-forme de données et d'IA autonome.
  • BigQuery ML
    • BigQuery ML est une fonctionnalité de l'entrepôt de données BigQuery de Google Cloud. Elle permet aux analystes et aux data scientists de créer, d'entraîner et de déployer des modèles de machine learning directement dans BigQuery à l'aide de requêtes SQL standard. Vous n'avez donc pas besoin de déplacer les données vers des plates-formes de ML distinctes, ce qui simplifie le workflow de machine learning et rend le ML plus accessible aux utilisateurs de SQL. Pour en savoir plus, consultez Créer des modèles de machine learning dans BigQuery ML.
  • Bigtable
    • Service de base de données NoSQL entièrement géré, également recommandé comme option de stockage pour les données d'entraînement lorsque vous utilisez Vertex AI. Pour en savoir plus, consultez la présentation de Bigtable.
  • Bilingual Evaluation Understudy (BLEU)
    • Mesure courante pour évaluer la qualité d'un algorithme de traduction automatique en comparant son résultat à celui d'une ou plusieurs traductions humaines.
  • cadre de délimitation
    • Un cadre de délimitation pour un objet dans l'image vidéo peut être spécifié de deux manières : (i) Utiliser deux sommets composés d'un ensemble de coordonnées x et y s'ils correspondent à des points diagonalement opposés du rectangle. Par exemple : x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Utiliser les quatre sommets. Pour en savoir plus, consultez la section Préparer des données vidéo.
  • bucket
    • Dossier de premier niveau pour Cloud Storage. Les noms de buckets doivent être uniques pour tous les utilisateurs de Cloud Storage. Les buckets contiennent des fichiers. Pour en savoir plus, consultez la présentation du produit Cloud Storage.
  • chat
    • Contenu d'un dialogue avec un système de ML, généralement un grand modèle de langage. L'interaction précédente dans une discussion (ce que vous avez saisi et la réponse du grand modèle de langage) devient le contexte des parties suivantes de la discussion. Un chatbot est une application d'un grand modèle de langage.
  • checkpoint
    • Données qui capturent l'état des paramètres d'un modèle pendant l'entraînement ou une fois celui-ci terminé. Par exemple, pendant l'entraînement, vous pouvez : 1. Arrêter l'entraînement, peut-être intentionnellement ou en raison de certaines erreurs. 2. Capturez le point de contrôle. 3. Rechargez ensuite le point de contrôle, éventuellement sur un autre matériel. 4. Redémarrez l'entraînement. Dans Gemini, un point de contrôle fait référence à une version spécifique d'un modèle Gemini entraîné sur un ensemble de données spécifique.
  • modèle de classification
    • Modèle dont l'inférence est une classe. Par exemple, les modèles suivants sont tous des modèles de classification : un modèle qui prédit la langue d'une phrase saisie (français ? Espagnol ? Italien ?) Un modèle qui prédit les espèces d'arbres (érable ? Chêne ? Baobab ?). Modèle qui prédit la classe positive ou négative pour une affection médicale particulière.
  • métriques de classification
    • Les métriques de classification compatibles avec le SDK Vertex AI pour Python sont la matrice de confusion et la courbe ROC.
  • Cloud Logging
    • Cloud Logging est un service de journalisation en temps réel entièrement géré fourni par Google Cloud. Il vous permet de collecter, de stocker, d'analyser et de surveiller les journaux de toutes vos ressources Google Cloud, de vos applications sur site et même de vos sources personnalisées. Cloud Logging centralise la gestion des journaux, ce qui facilite le dépannage, l'audit et la compréhension du comportement et de l'état de vos applications et de votre infrastructure. Pour en savoir plus, consultez la présentation de Cloud Logging.
  • Cloud Monitoring
    • Cloud Monitoring est une plate-forme d'observabilité complète fournie par Google Cloud. Elle collecte et visualise les métriques, les journaux et les événements des services Google Cloud, de l'infrastructure sur site et des composants d'application. Il permet aux utilisateurs d'obtenir des insights sur les performances, la disponibilité et l'état général de leurs systèmes, ce qui permet de détecter, de résoudre et de signaler les problèmes de manière proactive. Pour en savoir plus, consultez Métriques Cloud Monitoring pour Vertex AI.
  • Cloud Network Address Translation (Cloud NAT)
    • Cloud NAT (Network Address Translation) est un service Google Cloud entièrement géré qui permet aux instances de machines virtuelles et à d'autres ressources sans adresse IP externe de se connecter à Internet. Pour en savoir plus, consultez la documentation Cloud NAT.
  • Cloud Profiler
    • Cloud Profiler est un service de profilage continu fourni par Google Cloud. Il vous aide à identifier et à analyser la consommation de processeur et de mémoire, ainsi que l'utilisation d'autres ressources (comme le tas de mémoire, le temps écoulé et la contention) dans vos applications. Il collecte automatiquement les données de profilage de vos applications de production avec une surcharge minimale, ce qui vous permet de visualiser et de comprendre les goulots d'étranglement des performances dans différents services, et d'optimiser votre code pour une meilleure efficacité et des coûts réduits. Pour en savoir plus, consultez la présentation de Cloud Profiler.
  • Cloud Router
    • Cloud Router est une offre distribuée et entièrement gérée qui fournit des fonctionnalités de speaker et de répondeur BGP (Border Gateway Protocol). Cloud Router fonctionne avec Cloud Interconnect, Cloud VPN, Cloud NAT et les appliances de routeur pour créer des routes dynamiques dans les réseaux VPC en fonction des routes apprises personnalisées et reçues par BGP. Pour en savoir plus, consultez la présentation des concepts de Cloud Router.
  • Cloud Storage
    • Service de stockage d'objets évolutif et sécurisé de Google Cloud, recommandé pour stocker les grands ensembles de données utilisés pour l'entraînement et la validation avec Vertex AI afin d'optimiser les performances. Pour en savoir plus, consultez la documentation Cloud Storage.
  • Cloud Storage FUSE
    • Adaptateur FUSE Open Source qui permet d'installer des buckets Cloud Storage en tant que système de fichiers sur des systèmes Linux ou macOS. Pour en savoir plus, consultez Cloud Storage FUSE.
  • Cloud TPU
    • Accélérateur matériel spécialisé conçu pour accélérer les charges de travail de machine learning sur Google Cloud.
  • Colab Enterprise
    • Colab Enterprise est un environnement de notebook Jupyter géré et collaboratif qui apporte l'expérience utilisateur populaire de Google Colab à Google Cloud, en offrant des fonctionnalités de sécurité et de conformité de niveau entreprise. Colab Enterprise offre une expérience sans configuration axée sur les notebooks, avec des ressources de calcul gérées par Vertex AI, et s'intègre à d'autres services Google Cloud tels que BigQuery. Pour en savoir plus, consultez la présentation de Colab Enterprise.
  • VPC consommateur
    • Un réseau VPC (Virtual Private Cloud) client permet d'accéder de manière privée à des services gérés depuis son réseau VPC. Pour en savoir plus, consultez Private Service Connect.
  • image de conteneur
  • context
    • Un contexte permet de regrouper des artefacts et des exécutions sous une catégorie unique, interrogeable et typée. Les contextes peuvent servir à représenter des ensembles de métadonnées. Un exemple de contexte pourrait être une exécution d'un pipeline de machine learning.
  • cache de contexte
    • Dans Vertex AI, un cache de contexte est une grande quantité de données qui peut être utilisée dans plusieurs requêtes envoyées à un modèle Gemini. Le contenu mis en cache est stocké dans la région où la requête de création du cache est effectuée. Il peut s'agir de n'importe quel type MIME compatible avec les modèles multimodaux Gemini, comme du texte, de l'audio ou de la vidéo. Pour en savoir plus, consultez Présentation de la mise en cache du contexte.
  • fenêtre de contexte
    • Nombre de jetons qu'un modèle peut traiter dans une requête donnée. Plus la fenêtre de contexte est grande, plus le modèle peut utiliser d'informations pour fournir des réponses cohérentes et adaptées à la requête.
  • Clés de chiffrement gérées par le client (CMEK)
    • Les clés de chiffrement gérées par le client (CMEK, Customer-Managed Encryption Keys) sont des intégrations qui permettent aux clients de chiffrer des données dans les services Google existants à l'aide d'une clé qu'ils gèrent dans Cloud KMS (alias Storky). La clé dans Cloud KMS est la clé de chiffrement de clé qui protège ses données. Pour en savoir plus, consultez Clés de chiffrement gérées par le client (CMEK).
  • Réseau VPC de consommateur
    • Un réseau VPC consommateur est un réseau cloud privé virtuel (VPC) Google qui accède de manière privée à un service hébergé dans un autre VPC (appelé VPC producteur). Pour en savoir plus, consultez Private Service Connect.
  • CustomJob
    • Un CustomJob est l'une des trois ressources Vertex AI qu'un utilisateur peut créer pour entraîner des modèles personnalisés sur Vertex AI. Les tâches d'entraînement personnalisées constituent le moyen de base d'exécuter du code d'entraînement de machine learning (ML) personnalisé dans Vertex AI. Pour en savoir plus, consultez Créer des jobs d'entraînement personnalisés.
  • Image de conteneur personnalisé
    • Une image de conteneur personnalisée est un package exécutable autonome qui inclut le code d'application de l'utilisateur, son environnement d'exécution, ses bibliothèques, ses dépendances et la configuration de son environnement. Dans le contexte de Google Cloud, en particulier Vertex AI, il permet à l'utilisateur d'empaqueter son code d'entraînement de machine learning ou son application de diffusion avec ses dépendances exactes, ce qui garantit la reproductibilité et lui permet d'exécuter une charge de travail sur des services gérés à l'aide de versions logicielles spécifiques ou de configurations uniques non fournies par les environnements standards. Pour en savoir plus, consultez Exigences concernant les conteneurs personnalisés pour l'inférence.
  • entraînement personnalisé
    • L'entraînement personnalisé Vertex AI est un service flexible qui permet aux utilisateurs d'exécuter leurs propres applications d'entraînement personnalisées (scripts ou conteneurs) sur l'infrastructure Google Cloud, ce qui leur permet de contrôler les types de machines et le scaling. Pour en savoir plus, consultez la présentation de l'entraînement personnalisé.
  • Dask
    • Dask est une plate-forme de calcul distribué souvent utilisée avec TensorFlow, PyTorch et d'autres frameworks de ML pour gérer les tâches d'entraînement distribué. Pour en savoir plus, consultez Wikipédia.
  • analyse des données  ;
    • Procédure visant à comprendre des données en en étudiant les échantillons, les mesures et les visualisations. L'analyse de données peut s'avérer particulièrement utile à la réception d'un ensemble de données, avant la création du premier modèle. Elle est également cruciale pour interpréter les expériences et déboguer les problèmes affectant le système.
  • augmentation des données
    • Augmenter artificiellement l'éventail et le nombre d'exemples d'entraînement en transformant les exemples existants afin d'en créer de nouveaux. Supposons que votre ensemble de données contienne des exemples d'images, mais pas suffisamment pour que le modèle apprenne des associations utiles. Dans l'idéal, vous allez ajouter suffisamment d'images avec libellé à votre ensemble de données pour que votre modèle puisse s'entraîner correctement. Si ce n'est pas possible, l'augmentation des données peut faire pivoter, étirer et faire un reflet de chaque image afin de créer de nombreuses variantes de l'image originale, ce qui produira éventuellement suffisamment de données avec libellé pour un entraînement d'excellente qualité.
  • Gestionnaire GPU de centre de données (DCGM)
  • DataFrame
    • Type de données pandas populaire utilisé pour représenter des ensembles de données en mémoire. Un DataFrame est analogue à un tableau ou à une feuille de calcul. Chaque colonne d'un DataFrame porte un nom (un en-tête) et chaque ligne est identifiée par un nombre unique. Chaque colonne d'un DataFrame est structurée comme un tableau 2D, sauf que chaque colonne peut se voir attribuer son propre type de données.
  • ensemble de données
    • Un ensemble de données est défini comme une collection d'enregistrements de données structurés ou non structurés. Ensemble de données brutes, généralement (mais pas exclusivement) organisé dans l'un des formats suivants : une feuille de calcul ou un fichier au format CSV (valeurs séparées par une virgule). Pour en savoir plus, voir Créer un ensemble de données
  • decoder
    • En général, tout système de ML qui convertit une représentation traitée, dense ou interne en une représentation plus brute, creuse ou externe. Les décodeurs sont souvent un composant d'un modèle plus vaste, où ils sont fréquemment associés à un encodeur. Dans les tâches de séquence à séquence, un décodeur commence par l'état interne généré par l'encodeur pour prédire la séquence suivante.
  • Réseau de neurones profond (DNN, Deep Neural Network)
    • Réseau de neurones avec plusieurs couches cachées, généralement programmé à l'aide de techniques de deep learning.
  • depth
    • Dans un réseau de neurones, il s'agit de la somme des éléments suivants : 1) le nombre de couches cachées, 2) le nombre de couches de sortie (généralement une seule) et 3) le nombre de couches d'embedding. Par exemple, un réseau de neurones avec cinq couches cachées et une couche de sortie a une profondeur de 6. Notez que la couche d'entrée n'a pas d'incidence sur la profondeur.
  • DevOps
    • DevOps est une suite de produits Google Cloud Platform, par exemple Artifact Registry et Cloud Deploy.
  • arrêt prématuré
    • Méthode de régularisation qui consiste à arrêter l'entraînement avant que la perte d'entraînement ait fini de baisser. Dans l'arrêt prématuré, vous arrêtez intentionnellement l'entraînement du modèle lorsque la perte sur un ensemble de données de validation commence à augmenter, c'est-à-dire lorsque les performances de généralisation se détériorent.
  • embedding
    • Représentations numériques de mots ou de textes. Ces nombres capturent la signification sémantique et le contexte du texte. Les mots ou textes similaires ou connexes ont tendance à avoir des embeddings similaires, ce qui signifie qu'ils sont plus proches les uns des autres dans l'espace vectoriel de grande dimension.
  • espace d'embedding (espace latent)
    • Dans l'IA générative, l'espace d'embedding fait référence à une représentation numérique de texte, d'images ou de vidéos qui capture les relations entre les entrées. Les modèles de machine learning, en particulier les modèles d'IA générative, permettent de créer ces embeddings en identifiant des modèles dans des ensembles de données volumineux. Les applications peuvent utiliser des embeddings pour traiter et générer du langage, en reconnaissant des significations complexes et des relations sémantiques spécifiques au contenu.
  • vecteur d'embedding
    • Représentation vectorielle dense, souvent de faible dimension, d'un élément. Si deux éléments sont sémantiquement similaires, leurs embeddings respectifs sont proches l'un de l'autre dans l'espace du vecteur d'embedding.
  • encoder
    • En général, tout système de ML qui convertit une représentation brute, éparse ou externe en une représentation plus traitée, plus dense ou plus interne. Les encodeurs sont souvent un composant d'un modèle plus vaste, où ils sont fréquemment associés à un décodeur. Certains transformers associent des encodeurs à des décodeurs, tandis que d'autres n'utilisent que l'encodeur ou le décodeur. Certains systèmes utilisent la sortie de l'encodeur comme entrée d'un réseau de classification ou de régression. Dans les tâches de séquence à séquence, un encodeur prend une séquence d'entrée et renvoie un état interne (un vecteur). Le décodeur utilise ensuite cet état interne pour prédire la séquence suivante.
  • point de terminaison
  • ensemble
    • Ensemble de modèles entraînés indépendamment dont les inférences sont moyennées ou agrégées. Dans de nombreux cas, un ensemble produit de meilleures inférences qu'un seul modèle. Par exemple, une forêt aléatoire est un ensemble construit à partir de plusieurs arbres de décision. Notez que toutes les forêts de décision ne sont pas des ensembles.
  • environment
    • Dans l'apprentissage par renforcement, le monde contient l'agent et lui permet d'observer l'état de ce monde. Par exemple, le monde représenté peut être un jeu comme les échecs ou un monde physique comme un labyrinthe. Lorsque l'agent applique une action à l'environnement, celui-ci passe d'un état à un autre.
  • évaluation (eval)
    • Une évaluation est un type de test dans lequel des requêtes enregistrées ou synthétiques sont envoyées à travers deux piles de recherche : une pile expérimentale qui inclut votre modification et une pile de base sans votre modification. Les évaluations génèrent des différences et des métriques qui vous permettent d'évaluer l'impact, la qualité et d'autres effets de votre modification sur les résultats de recherche et d'autres éléments de l'expérience utilisateur Google. Les évaluations sont utilisées lors de l'ajustement ou des itérations de votre modification. Elles sont également utilisées pour déployer une modification du trafic utilisateur réel.
  • event
    • Un événement décrit la relation entre les artefacts et les exécutions. Chaque artefact peut être produit par une exécution et utilisé par d'autres exécutions. Les événements vous aident à déterminer la provenance des artefacts dans leurs workflows de ML en associant des artefacts et des exécutions.
  • exécution
    • Une exécution est un enregistrement d'une étape individuelle de workflow de machine learning, généralement annoté avec ses paramètres d'exécution. Les exemples d'exécution incluent l'ingestion de données, la validation de données, l'entraînement de modèle, l'évaluation de modèle et le déploiement de modèle.
  • test
    • Un test est un contexte pouvant contenir un ensemble de n exécutions de test en plus de n exécutions de pipeline, dans lequel un utilisateur peut examiner, de manière groupée, différentes configurations telles que des artefacts d'entrée ou des hyperparamètres.
  • exécution de test
    • Exécution spécifique et traçable dans un Vertex AI Experiment, qui enregistre les entrées (comme l'algorithme, les paramètres et les ensembles de données) et les sorties (comme les modèles, les points de contrôle et les métriques) pour surveiller et comparer les itérations de développement du ML. Pour en savoir plus, consultez Créer et gérer des exécutions de tests.
  • Explainable AI
    • Fonctionnalité de Vertex AI qui fournit des outils et des capacités permettant de comprendre et d'interpréter les inférences effectuées par les modèles de ML, en offrant des informations sur l'importance des caractéristiques et le comportement des modèles. Pour en savoir plus, consultez la Présentation de Vertex Explainable AI.
  • Analyse exploratoire des données
    • En statistiques, l'analyse exploratoire des données (AED) est une approche permettant d'analyser des ensembles de données afin de résumer leurs principales caractéristiques, souvent en employant des méthodes de visualisation des données. Un modèle statistique peut être utilisé ou non, mais l'AED consiste principalement à identifier ce que les données peuvent nous dévoiler au-delà de la modélisation formelle ou du test des hypothèses.
  • Score F1
    • Le score F1 est une métrique utilisée pour évaluer la précision de la sortie d'un modèle. Elle est particulièrement utile pour évaluer les performances des modèles dans les tâches où la précision et le rappel sont importants, comme l'extraction d'informations. Pour les modèles d'IA générative, le score F1 peut être utilisé pour comparer les inférences du modèle aux données de vérité terrain afin de déterminer la précision du modèle. Toutefois, pour les tâches génératives telles que la synthèse et la génération de texte, d'autres métriques comme le score Rough-L peuvent être plus appropriées.
  • fonctionnalité
    • En machine learning (ML), une caractéristique est une caractéristique ou un attribut d'une instance ou d'une entité utilisée comme entrée pour entraîner un modèle de ML ou pour effectuer des inférences.
  • Ingénierie des caractéristiques
    • L'ingénierie des caractéristiques est le processus de transformation de données de machine learning (ML) brutes en caractéristiques pouvant être utilisées pour entraîner des modèles de ML ou effectuer des inférences.
  • groupe de caractéristiques
    • Un groupe de caractéristiques est une ressource de registre de caractéristiques qui correspond à une table ou à une vue source BigQuery contenant des données de caractéristiques. Une vue de caractéristiques peut contenir des caractéristiques et peut être considérée comme un regroupement logique de colonnes de caractéristiques dans la source de données.
  • enregistrement de caractéristiques
    • Un enregistrement de caractéristiques est une agrégation de toutes les valeurs de caractéristiques qui décrivent les attributs d'une entité unique à un moment donné.
  • Registre de caractéristiques
    • Un registre de caractéristiques est une interface centrale pour l'enregistrement des sources de données de caractéristiques que vous souhaitez diffuser pour les inférences en ligne. Pour en savoir plus, consultez la page Configurer le registre de caractéristiques.
  • publication de caractéristiques
    • La livraison de caractéristiques consiste à exporter ou récupérer des valeurs de caractéristiques pour l'entraînement ou l'inférence. Dans Vertex AI, il existe deux types de publication de caractéristiques : la diffusion en ligne et la diffusion hors connexion. La diffusion en ligne récupère les dernières valeurs de caractéristiques d'un sous-ensemble de la source de données de caractéristiques pour les inférences en ligne. La diffusion hors connexion ou par lot exporte d'importants volumes de données de caractéristiques (y compris les données historiques) pour le traitement hors connexion, comme l'entraînement de modèles de ML.
  • horodatage de la caractéristique
    • Un horodatage de caractéristique indique quand l'ensemble de valeurs de caractéristiques d'un enregistrement de caractéristiques pour une entité a été généré.
  • Valeur de la caractéristique
    • Une valeur de caractéristique correspond à la valeur réelle et mesurable d'une caractéristique (attribut) d'une instance ou d'une entité. Une collection de valeurs de caractéristiques pour l'entité unique représente l'enregistrement de caractéristiques correspondant à l'entité.
  • Vue des caractéristiques
    • Une vue de caractéristiques est une collection logique de caractéristiques matérialisées depuis une source de données BigQuery vers une instance de magasin en ligne. Une vue de caractéristiques stocke et actualise régulièrement les données des caractéristiques du client, qui sont actualisées périodiquement à partir de la source BigQuery. Une vue de caractéristiques est associée au stockage de données de caractéristiques, directement ou via des associations aux ressources de registre de caractéristiques.
  • Filestore
    • Service de stockage de fichiers hautes performances et entièrement géré de Google Cloud, souvent utilisé pour les applications qui nécessitent un système de fichiers partagé. Pour en savoir plus, consultez la présentation de Filestore.
  • Modèle de base (FM)
    • Modèles entraînés sur des données générales afin de pouvoir être adaptés (par exemple, affinés) à un large éventail de tâches en aval.
  • Opérations sur les modèles de base (FMOPs)
    • Les FMOps étendent les capacités des MLOps et se concentrent sur la production efficace de FM pré-entraînés (entraînés à partir de zéro) ou personnalisés (affinés).
  • SDK des composants du pipeline Google Cloud
    • Le SDK des composants du pipeline Google Cloud (GCPC) fournit un ensemble de composants Kubeflow Pipelines prédéfinis, de qualité production, performants et faciles à utiliser. Vous pouvez utiliser les composants du pipeline Google Cloud pour définir et exécuter des pipelines de ML dans Vertex AI Pipelines et d'autres backends d'exécution de pipeline de ML conformes à Kubeflow Pipelines. Pour en savoir plus, consultez Présentation des composants du pipeline Google Cloud.
  • Compute Engine
    • Compute Engine est un composant de Google Cloud Platform. Il s'agit d'une offre IaaS (Infrastructure as a Service) qui permet aux utilisateurs d'exécuter des machines virtuelles sur l'infrastructure de Google. Pour en savoir plus, consultez la présentation de Compute Engine.
  • Instance Compute Engine
    • Une instance Compute Engine est une machine virtuelle (VM) qui s'exécute sur l'infrastructure de Google. Vous pouvez choisir ses spécifications, y exécuter des applications et vous y connecter via Internet, mais vous n'avez pas à gérer le matériel physique. Pour en savoir plus, consultez Machines virtuelles pour toutes les charges de travail.
  • Google Embedded Modem System (GEMS)
    • GEMS est un framework logiciel intégré ciblant les modems, ainsi qu'un ensemble de workflows et d'infrastructures de développement associés. L'objectif principal de GEMS est de fournir un code de système de modem de haute qualité et très réutilisable sur de nombreux appareils Google contenant des modems. Pour concrétiser cette vision globale, GEMS fournit un environnement complet aux développeurs, composé des principaux blocs de construction illustrés ci-dessous.
  • dégradé
    • Vecteur des dérivées partielles calculées pour l'ensemble des variables indépendantes. Dans le machine learning, le gradient correspond au vecteur des dérivées partielles de la fonction du modèle. Le gradient indique toujours la direction de la croissance maximale.
  • graph
    • Dans le contexte de Vertex AI, un graphique fait référence à une structure de données qui représente les relations entre les entités et leurs attributs. Il est utilisé pour modéliser et analyser des données complexes, telles que des graphiques de connaissances, des réseaux sociaux et des processus métier. Pour en savoir plus, consultez la Présentation de Vertex ML Metadata.
  • vérité terrain (GT)
    • La vérité terrain est un terme utilisé dans différents domaines pour désigner la vérité absolue d'un problème de décision ou de mesure, par opposition à l'estimation d'un système. En machine learning, le terme "vérité terrain" fait référence à l'ensemble d'entraînement pour les techniques d'apprentissage supervisé.
  • Heuristique
    • Solution simple et rapide à un problème. Par exemple, "Avec une heuristique, nous avons atteint une précision de 86 %. Lorsque nous avons opté pour un réseau de neurones profond, la précision a atteint 98 %."
  • couche cachée .
    • Couche d'un réseau de neurones située entre la couche d'entrée (les caractéristiques) et la couche de sortie (l'inférence). Chaque couche cachée est constituée d'un ou plusieurs neurones. Un réseau de neurones profond contient plus d'une couche cachée.
  • histogram
    • Affichage graphique de la variation d'un ensemble de données à l'aide de barres. Un histogramme permet de visualiser des modèles difficiles à détecter dans une simple table de nombres.
  • hyperparameter
    • Un hyperparamètre fait référence à une variable qui régit le processus d'entraînement d'un modèle de machine learning. Ces variables peuvent inclure les taux d'apprentissage, les valeurs de momentum dans l'optimiseur et le nombre d'unités dans la dernière couche cachée d'un modèle. Pour en savoir plus, consultez la présentation des réglages d'hyperparamètres.
  • Réglage des hyperparamètres
    • Le réglage des hyperparamètres dans Vertex AI consiste à exécuter plusieurs essais d'une application d'entraînement avec différentes valeurs pour les hyperparamètres choisis, définies dans des limites spécifiées. L'objectif est d'optimiser les paramètres d'hyperparamètres pour maximiser la précision prédictive du modèle. Pour en savoir plus, consultez la présentation des réglages d'hyperparamètres.
  • Autorisations IAM (Identity and Access Management)
    • Les autorisations Identity and Access Management (IAM) sont des fonctionnalités précises qui définissent qui peut faire quoi sur quelles ressources Google Cloud. Ils sont attribués à des comptes principaux (comme des utilisateurs, des groupes ou des comptes de service) par le biais de rôles, ce qui permet de contrôler précisément l'accès aux services et aux données dans un projet ou une organisation Google Cloud. Pour en savoir plus, consultez la page Contrôle des accès avec IAM.
  • reconnaissance d'images
    • La reconnaissance d'images est le processus de classification des objets, des formes ou des concepts dans une image. Elle est également appelée "classification d'images". La reconnaissance d'images est un sous-domaine du machine learning et de la vision par ordinateur.
  • index
    • Un ensemble de vecteurs déployés pour la recherche de similarités. Les vecteurs peuvent être ajoutés à un index ou supprimés de celui-ci. Les requêtes de recherche de similarités sont émises sur un index spécifique et recherchent les vecteurs de cet index.
  • inférence
    • Dans le contexte de la plate-forme Vertex AI, l'inférence fait référence au processus d'exécution de points de données dans un modèle de machine learning pour calculer une sortie, telle qu'un score numérique unique. Ce processus est également appelé "opérationnalisation d'un modèle de machine learning" ou "mise en production d'un modèle de machine learning". L'inférence est une étape importante du workflow de machine learning, car elle permet aux modèles d'être utilisés pour faire des inférences sur de nouvelles données. Dans Vertex AI, l'inférence peut être effectuée de différentes manières, y compris l'inférence par lot et l'inférence en ligne. L'inférence par lot consiste à exécuter un groupe de requêtes d'inférence et à générer les résultats dans un fichier, tandis que l'inférence en ligne permet d'effectuer des inférences en temps réel sur des points de données individuels.
  • Récupération d'informations
    • La récupération d'informations est un composant clé de Vertex AI Search. Il s'agit du processus de recherche et de récupération d'informations pertinentes à partir d'une grande collection de données. Dans le contexte de Vertex AI, la RI est utilisée pour récupérer des documents à partir d'un corpus en fonction de la requête d'un utilisateur. Vertex AI propose une suite d'API pour vous aider à créer vos propres applications de génération augmentée par récupération (RAG) ou votre propre moteur de recherche. Pour en savoir plus, consultez Utiliser Vertex AI Search comme backend de récupération à l'aide du moteur RAG.
  • Infrastructure as Code (IaC)
    • Infrastructure as Code. Approche de gestion de l'infrastructure informatique permettant aux équipes de gérer et de provisionner des services par le biais de code. Avec IaC, des fichiers de configuration contenant les spécifications de l'infrastructure sont créés, ce qui facilite la création et la modification de l'infrastructure à grande échelle.
  • Infrastructure as Code (IaC)
    • Infrastructure as Code. Approche de gestion de l'infrastructure informatique permettant aux équipes de gérer et de provisionner des services par le biais de code. Avec IaC, des fichiers de configuration contenant les spécifications de l'infrastructure sont créés, ce qui facilite la création et la modification de l'infrastructure à grande échelle.
  • Épuisement des adresses IP
  • Emplacement
    • Un emplacement est l'endroit physique dans le monde où vos ressources cloud sont hébergées. Ce concept se divise en deux parties principales : les régions et les zones. Pour en savoir plus, consultez Régions et zones.
  • perte (coût)
    • Pendant l'entraînement d'un modèle supervisé, il s'agit d'une mesure de l'écart entre l'inférence d'un modèle et son libellé. Une fonction de perte calcule la perte.
  • Machine Learning Metadata
    • ML Metadata (MLMD) est une bibliothèque permettant d'enregistrer et de récupérer les métadonnées associées aux workflows pour les data scientists et les développeurs ML. MLMD fait partie intégrante de TensorFlow Extended (TFX), mais il est conçu pour pouvoir être utilisé indépendamment. Dans la perspective plus large de la plate-forme TFX, la plupart des utilisateurs n'interagissent avec MLMD que lorsqu'ils examinent les résultats des composants du pipeline, par exemple dans les notebooks ou dans TensorBoard.
  • Ensemble de données géré
    • Objet d'ensemble de données créé et hébergé par Vertex AI.
  • journalisation manuelle
    • Processus consistant à ajouter explicitement du code (par exemple, à l'aide du SDK Vertex AI pour Python) à un script d'entraînement pour suivre et consigner les paramètres, métriques et artefacts personnalisés dans une exécution Vertex AI Experiments. Pour en savoir plus, consultez Présentation de la surveillance et de la journalisation.
  • Managed Lustre
    • Système de fichiers parallèle et distribué conçu pour le calcul hautes performances. Managed Lustre de Google Cloud fournit un système de fichiers à haut débit pour les charges de travail exigeantes. Pour en savoir plus, consultez Présentation de Managed Lustre.
  • scaling manuel
    • La mise à l'échelle manuelle fait référence au processus d'ajustement explicite et délibéré du nombre de ressources de calcul (telles que des machines virtuelles, des conteneurs ou des serveurs) allouées à une application ou à un service par un utilisateur ou un administrateur. Contrairement à l'autoscaling, qui ajuste automatiquement les ressources en fonction de la demande, le scaling manuel nécessite une intervention directe pour provisionner ou déprovisionner les ressources. Il offre un contrôle précis, mais manque de réactivité dynamique par rapport aux solutions automatisées. Pour en savoir plus, consultez Scaler les clusters Ray sur Vertex AI : scaling manuel.
  • scaling manuel
    • La mise à l'échelle manuelle fait référence au processus d'ajustement explicite et délibéré du nombre de ressources de calcul (telles que des machines virtuelles, des conteneurs ou des serveurs) allouées à une application ou à un service par un utilisateur ou un administrateur. Contrairement à l'autoscaling, qui ajuste automatiquement les ressources en fonction de la demande, le scaling manuel nécessite une intervention directe pour provisionner ou déprovisionner les ressources. Il offre un contrôle précis, mais manque de réactivité dynamique par rapport aux solutions automatisées. Pour en savoir plus, consultez Scaler les clusters Ray sur Vertex AI : scaling manuel.
  • Unité de transmission maximale (MTU)
    • Taille maximale d'un paquet de données qu'un appareil connecté au réseau peut transmettre. Des tailles de MTU plus importantes (trames jumbo) peuvent améliorer les performances du réseau pour certaines charges de travail. Pour en savoir plus, consultez Unité de transmission maximale.
  • MetadataSchema
    • Un MetadataSchema décrit le schéma de types particuliers d'artefacts, d'exécutions ou de contextes. Les MetadataSchema permettent de valider les paires clé/valeur lors de la création des ressources de métadonnées correspondantes. La validation de schéma n'est effectuée que sur les champs correspondants entre la ressource et le MetadataSchema. Les schémas de type sont représentés avec des objets de schéma OpenAPI, qui doivent être décrits à l'aide de YAML.
  • MetadataStore
    • MetadataStore est le conteneur de premier niveau pour les ressources de métadonnées. MetadataStore est régionalisé et associé à un projet Google Cloud spécifique. En règle générale, une organisation utilise un MetadataStore partagé pour les ressources de métadonnées au sein de chaque projet.
  • Pipelines de ML
    • Les pipelines de ML sont des workflows de ML portables et évolutifs basés sur des conteneurs.
  • model
    • Tout modèle pré-entraîné ou non. En général, toute construction mathématique qui traite des données d'entrée et renvoie des données de sortie. En d'autres termes, un modèle est l'ensemble des paramètres et de la structure nécessaires à un système pour faire des inférences.
  • Distillation de modèle (distillation des connaissances, modèles enseignant-élève)
    • La distillation de modèle est une technique qui permet à un modèle élève plus petit d'apprendre à partir d'un modèle enseignant plus grand. Le modèle étudiant est entraîné à imiter la sortie du modèle enseignant. Il peut ensuite être utilisé pour générer de nouvelles données ou effectuer des inférences. La distillation de modèle est souvent utilisée pour rendre les grands modèles plus efficaces ou plus accessibles aux appareils disposant de ressources limitées. Il peut également être utilisé pour améliorer la généralisation des modèles en réduisant le surapprentissage.
  • Évaluation des modèles
    • Vertex AI Model Evaluation est un service géré de la plate-forme Vertex AI de Google Cloud. Il aide les utilisateurs à évaluer les performances et la qualité de leurs modèles de machine learning. Il fournit des outils permettant de générer diverses métriques et visualisations d'évaluation. L'utilisateur peut ainsi comprendre les performances de ses modèles, identifier les biais potentiels et prendre des décisions éclairées concernant le déploiement et l'amélioration des modèles. Pour en savoir plus, consultez Évaluation de modèle dans Vertex AI.
  • Model Monitoring
    • Vertex AI Model Monitoring est un service qui évalue en continu les performances des modèles déployés en détectant les écarts et les dérives de caractéristiques dans les requêtes de prédiction. Il permet ainsi de maintenir la qualité des modèles au fil du temps. Pour en savoir plus, consultez la Présentation de Vertex AI Model Monitoring.
  • nom de ressource de modèle
    • Le nom de ressource d'un model est le suivant : projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Vous trouverez l'ID du modèle dans la console Cloud, sur la page "Registre de modèles".
  • Network File System (NFS)
  • NVIDIA Collective Communications Library (NCCL)
    • Bibliothèque qui fournit des primitives de communication inter-GPU optimisées pour les frameworks de deep learning, permettant un entraînement multi-GPU hautes performances. Pour en savoir plus, consultez la page NVIDIA Collective Communications Library (NCCL).
  • Magasin hors connexion
    • Le magasin hors connexion est une installation de stockage qui stocke des données de caractéristiques récentes et historiques, généralement utilisées pour l'entraînement des modèles de ML. Un magasin hors connexion contient également les dernières valeurs de caractéristiques, que vous pouvez diffuser pour les inférences en ligne.
  • Inférence en ligne
    • Obtenir des inférences sur des instances individuelles de manière synchrone. Pour en savoir plus, consultez Inférence en ligne.
  • Prédiction en ligne
    • Obtenir des prédictions sur des instances individuelles de manière synchrone. Pour en savoir plus, consultez Prédiction en ligne.
  • Magasin en ligne
    • Dans la gestion des caractéristiques, un magasin en ligne est une installation de stockage permettant de diffuser les dernières valeurs de caractéristiques pour les inférences en ligne.
  • parameter
    • Les paramètres sont des valeurs d'entrée à clé qui configurent une exécution, régulent le comportement de l'exécution et affectent les résultats de l'exécution. Exemples : taux d'apprentissage, taux d'abandon et nombre d'étapes d'entraînement.
  • Ressource persistante
    • Type de ressource de calcul Vertex AI, tel qu'un cluster Ray, qui reste alloué et disponible jusqu'à ce qu'il soit explicitement supprimé. Cela est utile pour le développement itératif et réduit les frais généraux de démarrage entre les jobs. Pour en savoir plus, consultez Obtenir des informations sur une ressource persistante.
  • pipeline
  • composant du pipeline
    • Un ensemble autonome de code qui effectue une étape dans le workflow d'un pipeline, comme le prétraitement des données, la transformation des données et l'entraînement d'un modèle.
  • tâche de pipeline
    • Un job de pipeline ou une exécution de pipeline correspondent à la ressource PipelineJob dans l'API Vertex AI. Il s'agit d'une instance d'exécution de votre définition de pipeline de ML, qui est définie comme un ensemble de tâches de ML interconnectées par des dépendances d'entrée/sortie.
  • exécution de pipeline
    • Un ou plusieurs PipelineJobs Vertex peuvent être associés à un test où chaque PipelineJob est représenté comme une seule exécution. Dans ce contexte, les paramètres de l'exécution sont déduits par les paramètres de la tâche PipelineJob. Les métriques sont déduits des artefacts system.Metric générés par cette tâche PipelineJob. Les artefacts de l'exécution sont déduits des artefacts produits par cette tâche PipelineJob.
  • modèle de pipeline
    • Définition d'un workflow de ML qu'un ou plusieurs utilisateurs peuvent réutiliser pour créer plusieurs exécutions de pipeline.
  • classe positive
    • La "classe positive" fait référence au résultat ou à la catégorie qu'un modèle est entraîné à prédire. Par exemple, si un modèle prédit si un client achètera un blouson, la classe positive sera "le client achète un blouson". De même, dans un modèle prédisant l'inscription d'un client à un dépôt à terme, la classe positive serait "client inscrit". La classe opposée est la "classe négative".
  • Conteneur prédéfini
    • Images de conteneur fournies par Vertex AI, qui sont préinstallées avec des frameworks et des dépendances de ML courants, ce qui simplifie la configuration des jobs d'entraînement et d'inférence. Pour en savoir plus, consultez Conteneurs prédéfinis pour l'entraînement personnalisé .
  • Accès privé à Google (APG)
    • L'accès privé à Google permet aux instances de VM n'ayant que des adresses IP internes (privées) (pas d'adresse IP externe) d'accéder aux adresses IP publiques des API et des services Google. Pour en savoir plus, consultez Configurer l'accès privé à Google.
  • Accès aux services privés
    • L'accès aux services privés est une connexion privée entre votre réseau de cloud privé virtuel (VPC) et les réseaux appartenant à Google ou à des fournisseurs de services tiers. Elle permet aux instances de machines virtuelles (VM) de votre réseau VPC de communiquer avec ces services à l'aide d'adresses IP internes, ce qui évite l'exposition à l'Internet public. Pour en savoir plus, consultez Accès aux services privés.
  • Private Service Connect (PSC)
    • Private Service Connect est une technologie qui permet aux clients Compute Engine de mapper des adresses IP privées de leur réseau à un autre réseau VPC ou à des API Google. Pour en savoir plus, consultez Private Service Connect.
  • Interface Private Service Connect (PSC-I)
    • L'interface Private Service Connect permet aux producteurs d'établir des connexions privées à toutes les ressources réseau du VPC consommateur.
  • VPC du producteur
    • Un VPC de producteur est un réseau de cloud privé virtuel (VPC) qui héberge un service géré et le met à la disposition d'autres réseaux VPC.
  • quantification
    • La quantification est une technique d'optimisation de modèle utilisée pour réduire la précision des nombres utilisés pour représenter les paramètres d'un modèle. Cela peut entraîner des modèles plus petits, une consommation d'énergie plus faible et une latence d'inférence réduite.
  • Forêt d'arbres décisionnels
    • La forêt aléatoire est un algorithme de machine learning utilisé pour la classification et la régression. Il ne s'agit pas directement d'un modèle d'IA générative, mais d'un composant qui peut être utilisé dans un système d'IA générative plus vaste. Une forêt aléatoire se compose de plusieurs arbres de décision, et son inférence est une agrégation des inférences de ces arbres individuels. Par exemple, dans une tâche de classification, chaque arbre "vote" pour une classe, et l'inférence finale est la classe qui obtient le plus de votes. Pour en savoir plus, consultez Forêt de décision.
  • API Ray Client (Ray Client)
    • Le client Ray est une API qui permet à un script Python local ou à un shell interactif (tel qu'un notebook Jupyter) de se connecter à un cluster Ray distant et d'interagir avec lui. En substance, le client Ray permet aux utilisateurs de développer et d'exécuter du code Ray comme s'il s'exécutait localement, tout en tirant parti de la puissance de calcul distribuée d'un cluster distant. Pour en savoir plus, consultez la présentation de Ray sur Vertex AI.
  • Cluster Ray sur Vertex AI
    • Un cluster Ray sur Vertex AI est un cluster géré de nœuds de calcul qui peut être utilisé pour exécuter des applications Python et de machine learning (ML) distribuées. Il fournit l'infrastructure nécessaire pour les opérations de calculs distribuées et de traitement en parallèle pour votre workflow de ML. Les clusters Ray sont intégrés à Vertex AI pour garantir la disponibilité de la capacité pour les charges de travail de ML critiques ou pendant les périodes de pics. Contrairement aux tâches personnalisées, où le service d'entraînement libère la ressource une fois la tâche terminée, les clusters Ray restent disponibles jusqu'à leur suppression. Pour en savoir plus, consultez la présentation de Ray sur Vertex AI.
  • Ray sur Vertex AI (RoV)
    • Ray sur Vertex AI est conçu pour vous permettre d'utiliser le même code Ray Open Source pour écrire des programmes et développer des applications sur Vertex AI avec un minimum de modifications. Pour en savoir plus, consultez la présentation de Ray sur Vertex AI.
  • SDK Ray sur Vertex AI pour Python
    • Le SDK Ray sur Vertex AI pour Python est une version du SDK Vertex AI pour Python qui inclut les fonctionnalités du client Ray, du connecteur BigQuery pour Ray, de la gestion des clusters Ray sur Vertex AI et des inférences sur Vertex AI. Pour en savoir plus, consultez Présentation du SDK Vertex AI pour Python.
  • recall
    • Le pourcentage de vrais voisins les plus proches renvoyé par l'index. Par exemple, si une requête de 20 voisins les plus proches renvoie un résultat de 19 voisins les plus proches de "vérité terrain", le rappel est de 19 / 20 x 100 = 95 %.
  • Reduction Server
    • Reduction Server est une fonctionnalité ou un composant disponible dans Vertex AI, spécialement conçu pour optimiser l'entraînement GPU distribué. Reduction Server fonctionne comme un algorithme entièrement réduit qui permet d'augmenter le débit et de réduire la latence pour l'entraînement de modèles de machine learning à grande échelle. Pour en savoir plus, consultez Réduire le temps d'entraînement avec Reduction Server.
  • régularisation
    • La régularisation est une technique utilisée pour éviter le surapprentissage dans les modèles de machine learning. Le surapprentissage se produit lorsqu'un modèle apprend trop bien les données d'entraînement, ce qui entraîne de mauvaises performances sur les données inconnues. L'arrêt prématuré est un type spécifique de régularisation. Il consiste à interrompre l'entraînement avant que la perte sur un ensemble de validation ne commence à augmenter, ce qui indique une baisse des performances de généralisation. Pour en savoir plus, consultez Surapprentissage : régularisation L2.
  • Apprentissage par renforcement
    • Type de machine learning dans lequel un agent apprend à prendre des décisions en effectuant des actions dans un environnement afin de maximiser une récompense cumulative. Pour en savoir plus, consultez Réglage RLHF avec Vertex AI.
  • Restrictions
    • Fonctionnalité permettant de limiter les recherches à un sous-ensemble de l'index à l'aide de règles booléennes. La restriction est également appelée "filtrage". Vector Search vous permet d'utiliser le filtrage numérique et le filtrage des attributs de texte.
  • compte de service
    • Les comptes de service sont des comptes Google Cloud spéciaux utilisés par les applications ou les machines virtuelles pour effectuer des appels d'API autorisés aux services Google Cloud. Contrairement aux comptes utilisateur, ils ne sont pas liés à une personne physique, mais servent d'identité à votre code, ce qui permet un accès sécurisé et programmatique aux ressources sans nécessiter d'identifiants humains. Pour en savoir plus, consultez la section Présentation des comptes de service.
  • Agent de service
    • Un agent de service fait référence à un compte de service géré par Google. Il est utilisé lorsqu'un service a besoin d'accéder à des ressources créées par un autre service. Par exemple, lorsque les services Dataflow ou Dataproc doivent créer des instances lors de l'exécution, ou lorsqu'une fonction Cloud souhaite utiliser le service Key Management Service (KMS) pour se protéger. Les agents de service sont créés automatiquement par Google Cloud lorsqu'un service en a besoin. Ils sont généralement utilisés pour gérer l'accès aux ressources et effectuer diverses tâches au nom du service. Pour en savoir plus, consultez Agents de service.
  • Simple Linux Utility for Resource Management (SLURM)
    • Slurm est un gestionnaire de charge de travail et un planificateur de tâches Open Source, puissant et largement utilisé pour les noyaux Linux et de type Unix, en particulier dans les environnements de calcul hautes performances (HPC). Pour en savoir plus, consultez Gestionnaire de charges de travail Slurm.
  • métriques récapitulatives
    • Les métriques récapitulatives sont une valeur unique pour chaque clé de métrique lors d'une exécution de test. Par exemple, la justesse d'un test est la justesse calculée à partir d'un ensemble de données de test à la fin de l'entraînement et pouvant être capturée en tant que métrique récapitulative à valeur unique.
  • Affinage supervisé (SFT)
    • Technique de machine learning dans laquelle un modèle pré-entraîné est entraîné davantage sur un ensemble de données étiquetées plus petit pour l'adapter à une tâche spécifique.
  • TensorBoard
    • TensorBoard est une suite d'applications Web permettant de visualiser et de comprendre les exécutions et les modèles TensorFlow. Pour en savoir plus, consultez la page sur TensorBoard.
  • Instance TensorBoard
    • Une instance TensorBoard est une ressource régionalisée qui stocke les tests Vertex AI TensorBoard associés à un projet. Vous pouvez créer plusieurs instances TensorBoard dans un projet si, par exemple, vous souhaitez plusieurs instances configurées pour utiliser les CMEK. Elle correspond à la ressource TensorBoard dans l'API.
  • Nom de ressource TensorBoard
    • Le nom de la ressource TensorBoard permet d'identifier complètement une instance Vertex AI TensorBoard. Le format est le suivant : projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
  • TensorFlow Extended (TFX)
    • TensorFlow Extended (TFX) est une plate-forme de bout en bout permettant de déployer des pipelines de machine learning de production basés sur la plate-forme TensorFlow.
  • Conteneur TensorFlow Serving
    • Image de conteneur spécialisée conçue pour diffuser efficacement des modèles TensorFlow pour les inférences, utilisée lors du déploiement de modèles tabulaires personnalisés avec Vertex AI Model Monitoring.
  • horodatage
    • L'horodatage fait référence au début d'une vidéo.
  • segment de temps
    • Un segment de temps est identifié par des horodatages de début et de fin.
  • métriques de séries temporelles
    • Les métriques de séries temporelles sont des valeurs de métriques longitudinales où chaque valeur représente une étape de la partie routine d'entraînement d'une exécution. Les métriques de séries temporelles sont stockées dans Vertex AI TensorBoard. Vertex AI Experiments stocke une référence à la ressource Vertex TensorBoard.
  • token
    • Dans un modèle de langage, le jeton est l'unité atomique sur laquelle le modèle effectue l'entraînement et les inférences (c'est-à-dire les mots, les morphèmes et les caractères). Dans les domaines autres que les modèles de langage, les jetons peuvent représenter d'autres types d'unités atomiques. Par exemple, dans les applications de vision par ordinateur, un jeton peut être un sous-ensemble d'une image. Pour en savoir plus, consultez Lister et compter les jetons.
  • cluster d'entraînement
    • Un cluster d'entraînement est un groupe de ressources de calcul interconnectées (comme des machines virtuelles, des GPU et le stockage associé) spécifiquement configurées et dédiées à l'exécution distribuée des charges de travail d'entraînement des modèles de machine learning. Ces clusters sont conçus pour fournir la puissance de calcul et l'évolutivité nécessaires à l'entraînement efficace de modèles complexes, en tirant souvent parti du traitement parallèle sur plusieurs nœuds. Pour en savoir plus, consultez Structure du cluster d'entraînement.
  • ensemble d'entraînement
    • Dans Vertex AI, l'ensemble d'entraînement est la plus grande partie de vos données (généralement 80 %) utilisée pour entraîner un modèle de machine learning. Le modèle apprend les schémas et les relations dans ces données pour faire des inférences. L'ensemble d'entraînement est distinct des ensembles de validation et de test, qui sont utilisés pour évaluer les performances du modèle pendant et après l'entraînement.
  • trajectoire
    • Une "trajectoire" désigne une séquence d'étapes ou d'actions entreprises par un agent ou un modèle. Elle est souvent utilisée pour évaluer les modèles génératifs, où la capacité du modèle à générer du texte, du code ou d'autres contenus est évaluée. Il existe plusieurs types de métriques de trajectoire qui peuvent être utilisées pour évaluer les modèles génératifs, y compris la correspondance exacte de la trajectoire, la correspondance de la trajectoire dans l'ordre, la correspondance de la trajectoire dans n'importe quel ordre et la précision de la trajectoire. Ces métriques mesurent la similarité entre la sortie du modèle et un ensemble de sorties de référence générées par des humains.
  • Transformer
    • Un "Transformer" est une architecture de réseau de neurones qui sous-tend la plupart des modèles génératifs de pointe. Il est utilisé dans diverses applications de modèles linguistiques, y compris la traduction. Les Transformers se composent d'un encodeur et d'un décodeur. L'encodeur convertit le texte d'entrée en une représentation intermédiaire, et le décodeur convertit cette représentation en une sortie utile. Ils utilisent un mécanisme d'auto-attention pour recueillir le contexte des mots entourant le mot en cours de traitement. Bien que l'entraînement d'un Transformer nécessite des ressources importantes, l'affinage d'un Transformer pré-entraîné pour des applications spécifiques est plus efficace.
  • vrai positif
    • Un "vrai positif" désigne une inférence où le modèle identifie correctement une classe positive. Par exemple, si un modèle est entraîné pour identifier les clients qui achèteront un blouson, un vrai positif correspond à la prédiction correcte qu'un client effectuera un tel achat.
  • artefacts non gérés
    • Artefact existant en dehors du contexte Vertex AI.
  • vecteur
    • Un vecteur fait référence à une représentation numérique de texte, d'images ou de vidéos qui capture les relations entre les entrées. Les modèles de machine learning permettent de créer ces embeddings en identifiant des modèles dans des ensembles de données volumineux. Les applications peuvent utiliser des embeddings pour traiter et produire du langage, en reconnaissant des significations complexes et des relations sémantiques spécifiques au contenu. Pour en savoir plus, consultez la présentation des API d'embeddings.
  • Vertex AI Agent Engine
    • Vertex AI Agent Engine, qui fait partie de la plate-forme Vertex AI, est un ensemble de services qui permet aux développeurs de déployer, de gérer et de faire évoluer des agents IA en production. Agent Engine gère l'infrastructure pour faire évoluer les agents en production, ce qui vous permet de vous concentrer sur la création d'applications. Pour en savoir plus, consultez la présentation de Vertex AI Agent Engine.
  • Type de données Vertex AI
    • Les types de données Vertex AI sont "image", "text", "tabular" et "video".
  • Vertex AI Experiments
    • Vertex AI Experiments permet aux utilisateurs de suivre les éléments suivants : 1. Étapes d'une exécution de test (par exemple, prétraitement et entraînement). 2. les entrées (par exemple, l'algorithme, les paramètres et les ensembles de données) ; 3. les résultats de ces étapes (par exemple, les modèles, les points de contrôle et les métriques).
  • Vertex AI Feature Store
  • Vertex AI Inference
    • Service Vertex AI qui vous permet d'utiliser un modèle de machine learning (ML) entraîné pour effectuer des inférences à partir de nouvelles données inconnues. Vertex AI fournit des services permettant de déployer des modèles pour l'inférence. Pour en savoir plus, consultez Obtenir des inférences à partir d'un modèle entraîné personnalisé.
  • Vertex ML Metadata
  • Vertex AI Model Registry
    • Vertex AI Model Registry est un dépôt central dans lequel vous pouvez gérer le cycle de vie de vos modèles de ML. Vertex AI Model Registry vous offre un aperçu de vos modèles afin de mieux organiser, suivre et entraîner les nouvelles versions. Lorsque vous souhaitez déployer une version de modèle, vous pouvez l'attribuer à un point de terminaison directement à partir du registre ou, à l'aide d'alias, déployer des modèles sur un point de terminaison. Pour en savoir plus, consultez Présentation de Vertex AI Model Registry.
  • SDK Vertex AI pour Python
    • Le SDK Vertex AI pour Python offre des fonctionnalités semblables à la bibliothèque cliente Vertex AI pour Python, à la différence que le SDK est de niveau plus élevé et possède une précision moindre.
  • Vertex AI TensorBoard
    • Vertex AI TensorBoard est un service géré et évolutif sur Google Cloud qui permet aux data scientists et aux ingénieurs en ML de visualiser leurs tests de machine learning, de déboguer l'entraînement des modèles et de suivre les métriques de performances à l'aide de l'interface TensorBoard Open Source bien connue. Il s'intègre parfaitement à Vertex AI Training et à d'autres services, en fournissant un stockage persistant pour les données d'expériences et en permettant l'analyse collaborative du développement de modèles. Pour en savoir plus, consultez la Présentation de Vertex AI TensorBoard.
  • Vertex AI Vizier
    • Service d'optimisation par boîte noire permettant de régler les hyperparamètres et d'autres paramètres. Pour en savoir plus, consultez la présentation de Vertex AI Vizier.
  • Vertex AI Workbench
    • Vertex AI Workbench est un environnement de développement unifié basé sur des notebooks Jupyter. Il prend en charge l'ensemble du workflow de data science, de l'exploration et de l'analyse des données au développement, à l'entraînement et au déploiement des modèles. Vertex AI Workbench fournit une infrastructure gérée et évolutive avec des intégrations intégrées à d'autres services Google Cloud tels que BigQuery et Cloud Storage. Les data scientists peuvent ainsi effectuer efficacement leurs tâches de machine learning sans avoir à gérer l'infrastructure sous-jacente. Pour en savoir plus, consultez la présentation de Vertex AI Workbench.
  • segment vidéo
    • Un segment vidéo est identifié par l'horodatage de début et de fin d'une vidéo.
  • Machine virtuelle (VM)
    • Une machine virtuelle (VM) est un système informatique complet qui est entièrement émulé dans un logiciel. Il s'exécute en tant qu'"invité" autonome sur une machine physique "hôte". Pour en savoir plus, consultez Instances Compute Engine.
  • Cloud privé virtuel (VPC)
    • Cloud privé sécurisé et isolé, hébergé dans un cloud public, qui vous permet de définir un réseau virtuel isolé de manière logique des autres réseaux virtuels dans Google Cloud. Pour en savoir plus, consultez Cloud privé virtuel.
  • VPC Service Controls
    • VPC Service Controls est une fonctionnalité de sécurité de Google Cloud qui permet aux organisations de créer des périmètres sécurisés autour de leurs données et ressources sensibles afin de limiter le risque d'exfiltration de données. VPC Service Controls y parvient en limitant l'accès à des services et données Google Cloud spécifiques depuis des réseaux non autorisés, et en empêchant les données de sortir de ces périmètres définis. Il offre ainsi une protection efficace contre les menaces internes et les fuites de données accidentelles. Pour en savoir plus, consultez VPC Service Controls.
  • Nœud de calcul
    • Un nœud de calcul fait référence à une machine ou une instance de calcul individuelle au sein d'un cluster, qui est responsable de l'exécution des tâches ou du travail. Dans les systèmes tels que les clusters Kubernetes ou Ray, les nœuds sont les unités de calcul fondamentales.
  • Pool de nœuds de calcul
    • Composants d'un cluster Ray qui exécutent des tâches distribuées. Les pools de nœuds de calcul peuvent être configurés avec des types de machines spécifiques et sont compatibles avec l'autoscaling et le scaling manuel. Pour en savoir plus, consultez Structure du cluster d'entraînement.