L'ottimizzazione del modello è un processo cruciale per adattare Gemini all'esecuzione di attività specifiche con maggiore precisione e accuratezza. L'ottimizzazione fornisce al modello un set di dati di addestramento che contiene un insieme di esempi di attività downstream specifiche.
Questa pagina fornisce una panoramica dell'ottimizzazione del modello per Gemini, descrive le opzioni di ottimizzazione disponibili per Gemini e ti aiuta a determinare quando utilizzare ciascuna opzione di ottimizzazione.
Vantaggi dell'ottimizzazione del modello
L'ottimizzazione del modello è un modo efficace per personalizzare i modelli di grandi dimensioni in base alle tue attività. È un passaggio fondamentale per migliorare la qualità e l'efficienza del modello. L'ottimizzazione del modello offre i seguenti vantaggi:
- Qualità superiore per le tue attività specifiche
- Maggiore robustezza del modello
- Latenza e costi di inferenza inferiori grazie a prompt più brevi
Ottimizzazione rispetto alla progettazione dei prompt
- Prompting con modelli Gemini preaddestrati: il prompting è l'arte di creare istruzioni efficaci
per guidare i modelli di AI come Gemini nella generazione degli output desiderati.
Comporta la progettazione di prompt che trasmettono chiaramente l'attività, il formato desiderato e qualsiasi contesto pertinente. Puoi utilizzare le funzionalità di Gemini con una configurazione minima.
È più adatta a:
- Dati etichettati limitati: se hai una piccola quantità di dati etichettati o non puoi permetterti un lungo processo di fine-tuning.
- Prototipazione rapida: quando devi testare rapidamente un concept o ottenere un rendimento di base senza un investimento elevato nel fine-tuning.
- Fine-tuning personalizzato dei modelli Gemini: per risultati più personalizzati, Gemini ti consente di eseguire il fine-tuning dei suoi modelli sui tuoi set di dati specifici. Per creare un modello di AI che eccelle nel tuo dominio specifico, valuta la possibilità di eseguire il fine-tuning. Ciò comporta il riaddestramento del modello di base sul tuo set di dati etichettati, adattando le sue ponderazioni all'attività e ai dati. Puoi adattare Gemini ai tuoi casi d'uso. Il fine-tuning è più efficace quando:
- Hai dati etichettati: un set di dati di dimensioni considerevoli su cui eseguire l'addestramento (pensa a 100 o più esempi), che consente al modello di apprendere in modo approfondito le specifiche dell'attività.
- Attività complesse o uniche: per scenari in cui le strategie di prompting avanzate non sono sufficienti ed è essenziale un modello personalizzato in base ai tuoi dati.
Ti consigliamo di iniziare con il prompting per trovare il prompt ottimale. Quindi, passa al fine-tuning (se necessario) per migliorare ulteriormente le prestazioni o correggere gli errori ricorrenti. Sebbene l'aggiunta di altri esempi possa essere utile, è importante valutare dove il modello commette errori prima di aggiungere altri dati. I dati di alta qualità e ben etichettati sono fondamentali per un buon rendimento e sono migliori della quantità. Inoltre, i dati utilizzati per il fine-tuning devono riflettere la distribuzione, il formato e il contesto dei prompt che il modello incontrerà in produzione.
L'ottimizzazione offre i seguenti vantaggi rispetto alla progettazione dei prompt:
- Consente una personalizzazione approfondita del modello e si traduce in un miglior rendimento per attività specifiche.
- Allinea il modello alla sintassi personalizzata, alle istruzioni e alle regole semantiche specifiche del dominio.
- Offre risultati più coerenti e affidabili.
- È in grado di gestire più esempi contemporaneamente.
- Risparmia sui costi di inferenza rimuovendo esempi few-shot e istruzioni lunghe nei prompt.
Approcci di ottimizzazione
L'ottimizzazione efficiente dei parametri e il fine-tuning completo sono due approcci per personalizzare i modelli di grandi dimensioni. Entrambi i metodi presentano vantaggi e implicazioni in termini di qualità del modello ed efficienza delle risorse.
Ottimizzazione efficiente dei parametri
L'ottimizzazione efficiente dei parametri, chiamata anche ottimizzazione dell'adattatore, consente di adattare in modo efficiente i modelli di grandi dimensioni a attività o domini specifici. L'ottimizzazione efficiente dei parametri aggiorna un sottoinsieme relativamente piccolo dei parametri del modello durante il processo di ottimizzazione.
Per capire come Vertex AI supporta l'ottimizzazione e la pubblicazione degli adattatori, puoi trovare maggiori dettagli nel seguente white paper: Adaptation of Large Foundation Models.
Fine-tuning completo
Il fine-tuning completo aggiorna tutti i parametri del modello, rendendolo adatto all'adattamento a attività molto complesse, con il potenziale di ottenere una qualità superiore. Tuttavia, il fine-tuning completo richiede risorse di calcolo più elevate sia per l'ottimizzazione sia per la pubblicazione, con conseguenti costi complessivi più elevati.
Ottimizzazione efficiente dei parametri rispetto al fine-tuning completo
L'ottimizzazione efficiente dei parametri è più efficiente in termini di risorse ed economica rispetto al fine-tuning completo. Utilizza risorse di calcolo notevolmente inferiori per l'addestramento. È in grado di adattare il modello più velocemente con un set di dati più piccolo. La flessibilità dell'ottimizzazione efficiente dei parametri offre una soluzione per l'apprendimento multi-task senza la necessità di un riaddestramento approfondito.
Metodi di ottimizzazione supportati
Vertex AI supporta il fine-tuning supervisionato per personalizzare i foundation model.
Fine-tuning supervisionato
Il fine-tuning supervisionato migliora il rendimento del modello insegnandogli una nuova competenza. I dati che contengono centinaia di esempi etichettati vengono utilizzati per insegnare al modello a imitare un comportamento o un'attività desiderati. Ogni esempio etichettato mostra l'output che vuoi che il modello generi durante l'inferenza.
Quando esegui un job di fine-tuning supervisionato, il modello apprende parametri aggiuntivi che lo aiutano a codificare le informazioni necessarie per eseguire l'attività desiderata o apprendere il comportamento desiderato. Questi parametri vengono utilizzati durante l'inferenza. L'output del job di ottimizzazione è un nuovo modello che combina i parametri appena appresi con il modello originale.
Il fine-tuning supervisionato di un modello di testo è una buona opzione quando l'output del modello non è complesso ed è relativamente facile da definire. Il fine-tuning supervisionato è consigliato per la classificazione, l'analisi del sentiment, l'estrazione delle entità, il riepilogo di contenuti non complessi e la scrittura di query specifiche del dominio. Per i modelli di codice, il fine-tuning supervisionato è l'unica opzione.
Modelli che supportano il fine-tuning supervisionato
I seguenti modelli Gemini supportano il fine-tuning supervisionato:
Per ulteriori informazioni sull'utilizzo del fine-tuning supervisionato con ogni modello, consulta le seguenti pagine: Ottimizza i tipi di dati di testo, immagine, audio e documento.
Ottimizzazione delle preferenze
L'ottimizzazione delle preferenze di Vertex AI si basa sul fine-tuning supervisionato consentendoti di ottimizzare i modelli Gemini con i dati di feedback umano.
L'ottimizzazione delle preferenze consente al modello di apprendere dalle preferenze soggettive degli utenti che sono difficili da definire utilizzando solo etichette specifiche e il fine-tuning supervisionato.
Modelli che supportano l'ottimizzazione delle preferenze
I seguenti modelli Gemini supportano l'ottimizzazione delle preferenze:
Per ulteriori informazioni sull'ottimizzazione delle preferenze, consulta Informazioni sull'ottimizzazione delle preferenze per i modelli Gemini.
Checkpoint di ottimizzazione
I checkpoint di ottimizzazione ti consentono di salvare i progressi dell'ottimizzazione, confrontare il rendimento dei checkpoint e scegliere il checkpoint con il rendimento migliore.
Modelli che supportano i checkpoint di ottimizzazione
I seguenti modelli Gemini supportano i checkpoint di ottimizzazione:
Per ulteriori informazioni sui checkpoint di ottimizzazione, consulta Utilizza i checkpoint nell'ottimizzazione di Gemini.
Ottimizzazione continua
L'ottimizzazione continua ti consente di continuare a ottimizzare un modello o un checkpoint del modello già ottimizzato aggiungendo altre epoche o esempi di addestramento.
Modelli che supportano l'ottimizzazione continua
I seguenti modelli Gemini supportano l'ottimizzazione continua:
Per ulteriori informazioni sull'ottimizzazione continua, consulta Informazioni sull'ottimizzazione continua per i modelli Gemini.
Passaggi successivi
- Scopri di più sul fine-tuning supervisionato.
- Scopri di più sull'ottimizzazione delle preferenze.
- Per iniziare l'ottimizzazione, consulta Ottimizza i modelli Gemini utilizzando il fine-tuning supervisionato
- Per scoprire come utilizzare il fine-tuning supervisionato in una soluzione che crea una knowledge base con l'AI generativa, consulta Soluzione già pronta: knowledge base con l'AI generativa.
- Per scoprire di più sui costi di ottimizzazione, consulta Prezzi.