Scegliere una funzione di elaborazione dei documenti

Questo documento fornisce un confronto tra le funzioni di elaborazione dei documenti disponibili in BigQuery ML, che sono ML.GENERATE_TEXT e ML.PROCESS_DOCUMENT. Puoi utilizzare le informazioni contenute in questo documento per decidere quale funzione utilizzare nei casi in cui le funzioni hanno funzionalità sovrapposte.

A livello generale, la differenza tra queste funzioni è la seguente:

  • ML.GENERATE_TEXT è una buona scelta per eseguire attività di elaborazione del linguaggio naturale (NLP) in cui alcuni contenuti si trovano nei documenti. Questa funzione offre i seguenti vantaggi:

    • Riduci i costi
    • Supporto di più lingue
    • Velocità effettiva più elevata
    • Funzionalità di ottimizzazione del modello
    • Disponibilità di modelli multimodali

    Per esempi di attività di elaborazione dei documenti che funzionano meglio con questo approccio, consulta Esplorare le funzionalità di elaborazione dei documenti con l'API Gemini.

  • ML.PROCESS_DOCUMENT è una buona scelta per eseguire attività di elaborazione dei documenti che richiedono l'analisi dei documenti e una risposta strutturata predefinita.

Confronto delle funzioni

Utilizza la seguente tabella per confrontare le funzioni ML.GENERATE_TEXT e ML.PROCESS_DOCUMENT:

ML.GENERATE_TEXT ML.PROCESS_DOCUMENT
Finalità

Esegui qualsiasi attività di NLP correlata ai documenti passando un prompt a un modello Gemini o partner o a un modello aperto.

Ad esempio, dato un documento finanziario per un'azienda, puoi recuperare le informazioni del documento fornendo un prompt come What is the quarterly revenue for each division?.

Utilizza l'API Document AI per eseguire l'elaborazione specializzata dei documenti per diversi tipi di documenti, come fatture, moduli fiscali e bilanci. Puoi anche eseguire la suddivisione dei documenti.
Fatturazione

Comporta addebiti BigQuery ML per i dati elaborati. Per ulteriori informazioni, vedi Prezzi di BigQuery ML.

Comporta addebiti per Vertex AI per le chiamate al modello. Se utilizzi un modello Gemini 2.0 o versioni successive, la chiamata viene fatturata alla tariffa dell'API batch. Per ulteriori informazioni, consulta Costo di creazione e deployment di modelli di AI in Vertex AI.

Comporta addebiti BigQuery ML per i dati elaborati. Per ulteriori informazioni, vedi Prezzi di BigQuery ML.

Comporta addebiti per le chiamate all'API Document AI. Per saperne di più, consulta Prezzi dell'API Document AI.

Richieste al minuto (RPM) Non applicabile ai modelli Gemini. Tra 25 e 60 per i modelli partner. Per ulteriori informazioni, consulta la sezione Limiti di richieste al minuto. 120 RPM per tipo di processore, con un limite complessivo di 600 RPM per progetto. Per saperne di più, consulta l'elenco delle quote.
Token al minuto Varia da 8192 a oltre 1 milione, a seconda del modello utilizzato. Nessun limite di token. Tuttavia, questa funzione ha limiti di pagine diversi a seconda del processore utilizzato. Per ulteriori informazioni, vedi Limiti.
Ottimizzazione supervisionata L'ottimizzazione supervisionata è supportata per alcuni modelli. Non supportati.
Lingue supportate Il supporto varia in base al LLM scelto. Il supporto delle lingue dipende dal tipo di elaboratore di documenti; la maggior parte supporta solo l'inglese. Per saperne di più, consulta l'elenco dei processori.
Aree geografiche supportate Supportato in tutte le regioni di Generative AI per Vertex AI. Supportato nelle multiregioni EU e US per tutti i processori. Alcuni processori sono disponibili anche in determinate regioni singole. Per maggiori informazioni, consulta Supporto regionale e multiregionale.