Questa pagina spiega l'integrazione di TensorFlow di Gemini Enterprise Agent Platform e fornisce risorse che mostrano come utilizzare TensorFlow su Gemini Enterprise Agent Platform. L'integrazione di TensorFlow di Gemini Enterprise Agent Platform semplifica l'addestramento, il deployment e l'orchestrazione dei modelli TensorFlow in produzione.
Eseguire il codice nei notebook
Agent Platform offre due opzioni per l'esecuzione del codice nei notebook: Colab Enterprise e Vertex AI Workbench. Per saperne di più su queste opzioni, consulta Scegliere una soluzione per i notebook.
Container predefiniti per l'addestramento
Gemini Enterprise Agent Platform fornisce immagini container Docker predefinite per l'addestramento del modello. Questi container sono organizzati per framework di machine learning e versioni del framework e includono dipendenze comuni che potresti voler utilizzare nel codice di addestramento.
Per scoprire quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.
Addestramento distribuito
Puoi eseguire l'addestramento distribuito dei modelli TensorFlow su Gemini Enterprise Agent Platform. Per l'addestramento multi-worker, puoi utilizzare il server di riduzione per ottimizzare ulteriormente le prestazioni per le operazioni collettive di riduzione. Per scoprire di più sull'addestramento distribuito su Gemini Enterprise Agent Platform, consulta Addestramento distribuito.
Container predefiniti per l'inferenza
Analogamente ai container predefiniti per l'addestramento, Gemini Enterprise Agent Platform fornisce immagini container predefinite per fornire inferenze e spiegazioni da modelli TensorFlow che hai creato all'interno o all'esterno di Gemini Enterprise Agent Platform. Queste immagini forniscono server di inferenza HTTP che puoi utilizzare per erogare inferenze con una configurazione minima.
Per scoprire quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.
Runtime TensorFlow ottimizzato
Il runtime TensorFlow ottimizzato utilizza ottimizzazioni del modello e nuove tecnologie proprietarie di Google per migliorare la velocità e ridurre il costo delle inferenze rispetto ai contenitori di inferenza predefiniti standard di Gemini Enterprise Agent Platform per TensorFlow.
Integrazione di TensorFlow Cloud Profiler
Addestra i modelli in modo più economico e veloce monitorando e ottimizzando le prestazioni del job di addestramento utilizzando l'integrazione di TensorFlow Cloud Profiler di Gemini Enterprise Agent Platform. TensorFlow Cloud Profiler ti aiuta a comprendere il consumo di risorse delle operazioni di addestramento, in modo da poter identificare ed eliminare i colli di bottiglia delle prestazioni.
Per saperne di più su TensorFlow Cloud Profiler di Agent Platform, consulta Profilare le prestazioni di addestramento del modello utilizzando Profiler.
Risorse per l'utilizzo di TensorFlow su Gemini Enterprise Agent Platform
Per saperne di più e iniziare a utilizzare TensorFlow in Gemini Enterprise Agent Platform, consulta le seguenti risorse.
Dal prototipo alla produzione: una serie di video che fornisce un esempio end-to-end di sviluppo e deployment di un modello TensorFlow personalizzato su Gemini Enterprise Agent Platform.
Ottimizza le prestazioni dell'addestramento con Reduction Server su Gemini Enterprise Agent Platform: Un post del blog sull'ottimizzazione dell'addestramento distribuito su Gemini Enterprise Agent Platform utilizzando Reduction Server.
Come ottimizzare le prestazioni di addestramento con TensorFlow Cloud Profiler su Gemini Enterprise Agent Platform: un post del blog che mostra come identificare i colli di bottiglia delle prestazioni nel job di addestramento utilizzando TensorFlow Cloud Profiler di Gemini Enterprise Agent Platform.
Previsioni in batch del modello personalizzato con filtro delle funzionalità: Un tutorial del notebook che mostra come utilizzare l'SDK Agent Platform per Python per addestrare un modello di classificazione tabulare personalizzato ed eseguire l'inferenza batch con il filtro delle funzionalità.
Pipeline di Agent Platform: addestramento personalizzato con componenti della pipeline Google Cloud predefiniti: un tutorial su notebook che mostra come utilizzare le pipeline di Gemini Enterprise Agent Platform con componenti della pipeline Google Cloud predefiniti per l'addestramento personalizzato.
Co-hosting di modelli TensorFlow sulla stessa VM per le previsioni: un codelab che mostra come utilizzare la funzionalità di co-hosting di modelli nella piattaforma Gemini Enterprise Agent per ospitare più modelli sulla stessa VM per le inferenze online.