Llama 3.3 70B è un modello di 70 miliardi di parametri ottimizzato per le istruzioni solo testuali che offre prestazioni migliorate rispetto ai modelli Llama precedenti se utilizzato per applicazioni solo testuali.
Specifiche dell'API gestita (MaaS)
Visualizzare la scheda del modello in Model Garden
| ID modello | llama-3.3-70b-instruct-maas |
|
|---|---|---|
| Fase di lancio | GA | |
| Ingressi e uscite supportati |
|
|
| Funzionalità |
|
|
| Tipi di utilizzo |
|
|
| Data del knowledge cutoff | Dicembre 2023 | |
| Versioni |
|
|
| Aree geografiche supportate | ||
|
Disponibilità del modello |
|
|
|
Elaborazione ML |
|
|
| Limiti di quota |
us-central1:
|
|
| Prezzi | Vedi Prezzi. | |
Esegui il deployment come modello con deployment autonomo
Per eseguire il deployment autonomo del modello, vai alla scheda del modello Llama 3.3 70B nella console Model Garden e fai clic su Esegui il deployment del modello. Per saperne di più sul deployment e sull'utilizzo dei modelli partner, consulta Esegui il deployment di un modello partner ed effettua richieste di previsione.