Elegir una función de procesamiento de documentos

En este documento se comparan las funciones de procesamiento de documentos disponibles en BigQuery ML, que son ML.GENERATE_TEXT y ML.PROCESS_DOCUMENT. Puede usar la información de este documento para decidir qué función usar en los casos en los que las funciones tengan capacidades superpuestas.

A grandes rasgos, la diferencia entre estas funciones es la siguiente:

  • ML.GENERATE_TEXT es una buena opción para llevar a cabo tareas de procesamiento del lenguaje natural (PLN) en las que parte del contenido se encuentra en documentos. Esta función ofrece las siguientes ventajas:

    • Costes más bajos
    • Más idiomas disponibles
    • Mayor rendimiento
    • Capacidad de ajuste de modelos
    • Disponibilidad de modelos multimodales

    Para ver ejemplos de tareas de procesamiento de documentos que funcionan mejor con este enfoque, consulta Descubrir las funciones de procesamiento de documentos con la API de Gemini.

  • ML.PROCESS_DOCUMENT es una buena opción para realizar tareas de procesamiento de documentos que requieren el análisis de documentos y una respuesta estructurada predefinida.

Comparación de funciones

Usa la siguiente tabla para comparar las funciones ML.GENERATE_TEXT y ML.PROCESS_DOCUMENT:

ML.GENERATE_TEXT ML.PROCESS_DOCUMENT
Finalidad

Realiza cualquier tarea de PNL relacionada con documentos enviando una petición a un modelo de Gemini o de un partner o a un modelo abierto.

Por ejemplo, dado un documento financiero de una empresa, puedes obtener información del documento proporcionando una petición como What is the quarterly revenue for each division?.

Usa la API Document AI para procesar documentos especializados de diferentes tipos, como facturas, formularios fiscales y extractos financieros. También puedes dividir los documentos en fragmentos.
Facturación

Genera cargos de BigQuery ML por los datos procesados. Para obtener más información, consulta los precios de BigQuery ML.

Se aplican cargos de Vertex AI por las llamadas al modelo. Si usas un modelo de Gemini 2.0 o una versión posterior, la llamada se factura según la tarifa de la API por lotes. Para obtener más información, consulta Coste de crear y desplegar modelos de IA en Vertex AI.

Genera cargos de BigQuery ML por los datos procesados. Para obtener más información, consulta los precios de BigQuery ML.

Se aplican cargos por las llamadas a la API de Document AI. Para obtener más información, consulta los precios de la API Document AI.

Solicitudes por minuto (RPM) No aplicable a los modelos de Gemini. Entre 25 y 60 en el caso de los modelos de partners. Para obtener más información, consulta Límites de solicitudes por minuto. 120 RPM por tipo de procesador, con un límite general de 600 RPM por proyecto. Para obtener más información, consulta la lista de cuotas.
Tokens por minuto Oscila entre 8192 y más de 1 millón, según el modelo utilizado. Sin límite de tokens. Sin embargo, esta función tiene límites de páginas diferentes en función del procesador que utilices. Para obtener más información, consulta Límites.
Ajuste supervisado La puesta a punto supervisada está disponible en algunos modelos. No es compatible.
Idiomas disponibles La asistencia varía en función del LLM que elijas. La compatibilidad con idiomas depende del tipo de procesador de documentos. La mayoría solo admite inglés. Para obtener más información, consulta la lista de procesadores.
Regiones disponibles Disponible en todas las regiones de la IA generativa en Vertex AI. Disponible en las multirregiones EU y US para todos los procesadores. Algunos procesadores también están disponibles en determinadas regiones. Para obtener más información, consulta Asistencia regional y multirregional.