Escolher uma função de processamento de documentos

Neste documento, você encontra uma comparação das funções de processamento de documentos disponíveis no BigQuery ML, que são ML.GENERATE_TEXT e ML.PROCESS_DOCUMENT. Use as informações deste documento para decidir qual função usar nos casos em que as funções têm recursos sobrepostos.

De modo geral, a diferença entre essas funções é a seguinte:

  • ML.GENERATE_TEXT é uma boa opção para realizar tarefas de processamento de linguagem natural (PLN) em que parte do conteúdo está em documentos. Essa função oferece os seguintes benefícios:

    • Custos mais baixos
    • Mais idiomas disponíveis
    • Maior capacidade de transferência
    • Capacidade de ajuste de modelos
    • Disponibilidade de modelos multimodais

    Para exemplos de tarefas de processamento de documentos que funcionam melhor com essa abordagem, consulte Conheça os recursos de processamento de documentos com a API Gemini.

  • O ML.PROCESS_DOCUMENT é uma boa opção para realizar tarefas de processamento de documentos que exigem análise de documentos e uma resposta estruturada predefinida.

Comparação das funções

Use a tabela a seguir para comparar as funções ML.GENERATE_TEXT e ML.PROCESS_DOCUMENT:

ML.GENERATE_TEXT ML.PROCESS_DOCUMENT
Finalidade

Execute qualquer tarefa de PLN relacionada a documentos enviando um comando para um modelo do Gemini ou de parceiro ou para um modelo aberto.

Por exemplo, dado um documento financeiro de uma empresa, você pode recuperar informações do documento fornecendo um comando como What is the quarterly revenue for each division?.

Use a API Document AI para realizar o processamento especializado de diferentes tipos de documentos, como faturas, formulários fiscais e extratos financeiros. Você também pode dividir o documento em partes.
Faturamento

Incorrer em cobranças do BigQuery ML pelos dados processados. Para mais informações, consulte os preços do BigQuery ML.

Incorre em cobranças da Vertex AI por chamadas ao modelo. Se você estiver usando um modelo do Gemini 2.0 ou mais recente, a chamada será cobrada na taxa da API em lote. Para mais informações, consulte Custo de criação e implantação de modelos de IA na Vertex AI.

Incorrer em cobranças do BigQuery ML pelos dados processados. Para mais informações, consulte os preços do BigQuery ML.

Incorre em cobranças por chamadas à API Document AI. Para mais informações, consulte Preços da API Document AI.

Solicitações por minuto (RPM) Não aplicável aos modelos do Gemini. Entre 25 e 60 para modelos de parceiros. Para mais informações, consulte Limites de solicitações por minuto. 120 RPM por tipo de processador, com um limite geral de 600 RPM por projeto. Para mais informações, consulte a lista de cotas.
Tokens por minuto Varia de 8.192 a mais de 1 milhão, dependendo do modelo usado. Sem limite de tokens. No entanto, essa função tem limites de página diferentes, dependendo do processador usado. Para mais informações, consulte Limites.
Ajuste supervisionado O ajuste supervisionado é compatível com alguns modelos. Incompatível.
Idiomas compatíveis O suporte varia de acordo com o LLM escolhido. O suporte a idiomas depende do tipo de processador de documentos. A maioria só aceita inglês. Para mais informações, consulte a lista de processadores.
Regiões compatíveis Disponível em todas as regiões da IA generativa para Vertex AI. Disponível nas multirregiões EU e US para todos os processadores. Alguns processadores também estão disponíveis em determinadas regiões únicas. Para mais informações, consulte Suporte regional e multirregional.