Utilisation d'un LLM pré-entraîné

Cette page explique comment utiliser un grand modèle de langage (LLM) textuel dans les modèles de recommandation personnalisés. Nous entraînons ces modèles pour vous. Vous pouvez activer les fonctionnalités préentraînées dans les modèles de recommandation personnalisés.

Recommendations utilise le champ description du produit pour alimenter les LLM et les intégrer à vos modèles de recommandation.

Nouvelles fonctionnalités textuelles des LLM

Bien qu'il soit possible d'obtenir des embeddings de texte en configurant manuellement un modèle génératif Vertex AI, vous pouvez intégrer les nouvelles fonctionnalités des LLM à vos modèles de recommandation pour améliorer les performances.

Les embeddings de texte sont plus descriptifs, plus longs et non répétitifs. Ils disposent également de capacités d'interprétation multilingues. Cette fonctionnalité est basée sur une liste d'autorisation. Contactez l'assistance pour l'activer.

L'utilisation des embeddings de texte est sans frais et incluse dans la tarification d'AI Commerce Search pricing.

Les embeddings préentraînés par les LLM améliorent la compréhension sémantique des recherches de texte long, telles que les descriptions.

Pour en savoir plus sur l'utilisation des embeddings et de l'IA générative seuls dans votre propre entraînement ML personnalisé, consultez les ressources suivantes :

Compatibilité des modèles

La fonctionnalité LLM est compatible avec tous les types et objectifs de modèles ML, y compris :

  • OYML
  • FBT
  • et plus encore.

Pour en savoir plus sur les différents types de modèles de recommandation compatibles avec AI Commerce Search, consultez À propos des modèles de recommandation.