Acerca do ajuste supervisionado para modelos de GML de tradução

O ajuste fino supervisionado é uma boa opção quando tem uma tarefa de tradução com dados de texto etiquetados disponíveis. É particularmente eficaz para aplicações específicas do domínio em que a tradução difere significativamente dos dados gerais com os quais o modelo grande foi originalmente preparado.

O ajuste fino supervisionado adapta o comportamento do modelo com um conjunto de dados etiquetado. Este processo ajusta as ponderações do modelo para minimizar a diferença entre as respetivas previsões e as etiquetas reais.

Modelos suportados

Os seguintes modelos de GML de tradução suportam a otimização supervisionada:

  • translation-llm-002 (na Pré-visualização pública, suporta apenas texto)

Limitações

  • Tokens de entrada e saída máximos:
    • A ser publicado: 1000 (~4000 carateres)
  • Tamanho do conjunto de dados de validação: 1024 exemplos
  • Tamanho do ficheiro do conjunto de dados de preparação: até 1 GB para JSONL
  • Comprimento do exemplo de preparação: 1000 (~4000 carateres)
  • Tamanho do adaptador:
    • Translation LLM V2: o valor suportado é apenas 4. A utilização de outros valores (por exemplo, 1 ou 8) resulta numa falha.

Exemplos de utilização da otimização detalhada supervisionada

O modelo de tradução pré-preparado geral funciona bem quando o texto a traduzir se baseia em estruturas de texto comuns gerais a partir das quais o modelo aprendeu. Se quiser que um modelo aprenda algo específico ou de um domínio que se desvie da tradução geral, pode considerar ajustar esse modelo. Por exemplo, pode usar o ajuste do modelo para ensinar o modelo o seguinte:

  • Conteúdo específico de um domínio da indústria com jargão ou estilo
  • Estruturas ou formatos específicos para gerar resultados.
  • Comportamentos específicos, como quando fornecer um resultado conciso ou detalhado.
  • Resultados personalizados específicos para tipos de entradas específicos.

Configure uma região de tarefa de ajuste

Os dados do utilizador, como o conjunto de dados transformado e o modelo otimizado, são armazenados na região da tarefa de otimização. A única região suportada é us-central1.

  • Se usar o SDK do Vertex AI, pode especificar a região na inicialização. Por exemplo:

    import vertexai
    vertexai.init(project='myproject', location='us-central1')
    
  • Se criar uma tarefa de ajuste fino supervisionado enviando um pedido POST através do método tuningJobs.create, usa o URL para especificar a região onde a tarefa de ajuste é executada. Por exemplo, no URL seguinte, especifica uma região substituindo ambas as instâncias de TUNING_JOB_REGION pela região onde a tarefa é executada.

     https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
    
  • Se usar a Google Cloud consola, pode selecionar o nome da região no campo pendente Região na página Detalhes do modelo. Esta é a mesma página onde seleciona o modelo base e um nome de modelo otimizado.

Quota

A quota é aplicada ao número de tarefas de ajuste simultâneas. Todos os projetos incluem uma quota predefinida para executar, pelo menos, um trabalho de otimização. Esta é uma quota global, partilhada em todas as regiões disponíveis e modelos suportados. Se quiser executar mais tarefas em simultâneo, tem de pedir quota adicional para Global concurrent tuning jobs.

Preços

O ajuste fino supervisionado para translation-llm-002 está em pré-visualização. Enquanto a otimização estiver em pré-visualização, não é cobrado nenhum valor pela otimização de um modelo nem pela sua utilização para inferência.

Os tokens de preparação são calculados pelo número total de tokens no seu conjunto de dados de preparação, multiplicado pelo número de épocas.

O que se segue?