Llama 3.3 70B

Llama 3.3 70B è un modello di 70 miliardi di parametri ottimizzato per le istruzioni solo testuali che offre prestazioni migliorate rispetto ai modelli Llama precedenti se utilizzato per applicazioni solo testuali.

Specifiche dell'API gestita (MaaS)

Visualizzare la scheda del modello in Model Garden

ID modello llama-3.3-70b-instruct-maas
Fase di lancio GA
Ingressi e uscite supportati
  • Input:
    Testo, Codice
  • Output:
    Testo
Funzionalità
Tipi di utilizzo
Data del knowledge cutoff Dicembre 2023
Versioni
  • llama-3.3-70b-instruct-maas
    • Fase di lancio: GA
    • Data di uscita: 29 aprile 2025
Aree geografiche supportate

Disponibilità del modello

  • Stati Uniti
    • us-central1

Elaborazione ML

  • Stati Uniti
    • Multi-region
Limiti di quota

us-central1:

  • Output massimo: 8192
  • Lunghezza del contesto: 128.000

Prezzi Vedi Prezzi.

Esegui il deployment come modello con deployment autonomo

Per eseguire il deployment autonomo del modello, vai alla scheda del modello Llama 3.3 70B nella console Model Garden e fai clic su Esegui il deployment del modello. Per saperne di più sul deployment e sull'utilizzo dei modelli partner, consulta Esegui il deployment di un modello partner ed effettua richieste di previsione.