Scegliere una funzione di elaborazione dei documenti
Questo documento fornisce un confronto tra le funzioni di elaborazione dei documenti
disponibili in BigQuery ML, che sono
ML.GENERATE_TEXT
e
ML.PROCESS_DOCUMENT
.
Puoi utilizzare le informazioni contenute in questo documento per decidere quale funzione
utilizzare nei casi in cui le funzioni hanno funzionalità sovrapposte.
A livello generale, la differenza tra queste funzioni è la seguente:
ML.GENERATE_TEXT
è una buona scelta per eseguire attività di elaborazione del linguaggio naturale (NLP) in cui alcuni contenuti si trovano nei documenti. Questa funzione offre i seguenti vantaggi:- Riduci i costi
- Supporto di più lingue
- Velocità effettiva più elevata
- Funzionalità di ottimizzazione del modello
- Disponibilità di modelli multimodali
Per esempi di attività di elaborazione dei documenti che funzionano meglio con questo approccio, consulta Esplorare le funzionalità di elaborazione dei documenti con l'API Gemini.
ML.PROCESS_DOCUMENT
è una buona scelta per eseguire attività di elaborazione dei documenti che richiedono l'analisi dei documenti e una risposta strutturata predefinita.
Confronto delle funzioni
Utilizza la seguente tabella per confrontare le funzioni ML.GENERATE_TEXT
e
ML.PROCESS_DOCUMENT
:
ML.GENERATE_TEXT |
ML.PROCESS_DOCUMENT |
|
---|---|---|
Finalità | Esegui qualsiasi attività di NLP correlata ai documenti passando un prompt a un modello Gemini o partner o a un modello aperto. Ad esempio, dato un documento finanziario per un'azienda, puoi recuperare
le informazioni del documento fornendo un prompt come |
Utilizza l'API Document AI per eseguire l'elaborazione specializzata dei documenti per diversi tipi di documenti, come fatture, moduli fiscali e bilanci. Puoi anche eseguire la suddivisione dei documenti. |
Fatturazione | Comporta addebiti BigQuery ML per i dati elaborati. Per ulteriori informazioni, vedi
Prezzi di BigQuery ML. |
Comporta addebiti BigQuery ML per i dati elaborati. Per ulteriori informazioni, vedi
Prezzi di BigQuery ML.
Comporta addebiti per le chiamate all'API Document AI. Per saperne di più, consulta Prezzi dell'API Document AI. |
Richieste al minuto (RPM) | Non applicabile ai modelli Gemini. Tra 25 e 60 per i modelli partner. Per ulteriori informazioni, consulta la sezione Limiti di richieste al minuto. | 120 RPM per tipo di processore, con un limite complessivo di 600 RPM per progetto. Per saperne di più, consulta l'elenco delle quote. |
Token al minuto | Varia da 8192 a oltre 1 milione, a seconda del modello utilizzato. | Nessun limite di token. Tuttavia, questa funzione ha limiti di pagine diversi a seconda del processore utilizzato. Per ulteriori informazioni, vedi Limiti. |
Ottimizzazione supervisionata | L'ottimizzazione supervisionata è supportata per alcuni modelli. | Non supportati. |
Lingue supportate | Il supporto varia in base al LLM scelto. | Il supporto delle lingue dipende dal tipo di elaboratore di documenti; la maggior parte supporta solo l'inglese. Per saperne di più, consulta l'elenco dei processori. |
Aree geografiche supportate | Supportato in tutte le regioni di Generative AI per Vertex AI. | Supportato nelle multiregioni EU e US
per tutti i processori. Alcuni processori sono disponibili anche in determinate regioni singole. Per maggiori informazioni, consulta
Supporto regionale e multiregionale. |