Llama 3.3 70B

Llama 3.3 70B est un modèle textuel de 70 milliards de paramètres adapté aux instructions. Il offre des performances améliorées par rapport aux modèles Llama précédents lorsqu'il est utilisé pour des applications textuelles.

Spécifications des API gérées (MaaS)

Afficher la fiche du modèle dans Model Garden

ID du modèle llama-3.3-70b-instruct-maas
Étape de lancement DG
Entrées et sorties acceptées
  • Entrées :
    texte, code
  • Sorties :
    texte
Capacités
Types d'utilisation
Date limite des connaissances Décembre 2023
Versions
  • llama-3.3-70b-instruct-maas
    • Étape de lancement : disponibilité générale
    • Date de disponibilité : 29 avril 2025
Régions où le service est disponible

Disponibilité du modèle

  • États-Unis
    • us-central1

Traitement ML

  • États-Unis
    • Multi-region
Limites de quota

us-central1 :

  • Sortie maximale : 8 192
  • Longueur du contexte : 128 000

Tarifs Voir les tarifs

Déployer en tant que modèle auto-déployé

Pour déployer vous-même le modèle, accédez à la fiche de modèle Llama 3.3 70B dans la console Model Garden, puis cliquez sur Déployer le modèle. Pour en savoir plus sur le déploiement et l'utilisation des modèles partenaires, consultez Déployer un modèle partenaire et envoyer des requêtes de prédiction.