Escalonador automático gerenciado

Nesta página, descrevemos como o escalonador automático gerenciado funciona e os custos e limitações ao usar o escalonador automático gerenciado do Spanner. Ele também fornece informações para ajudar você a determinar como configurar o escalonador automático gerenciado.

Como funciona o escalonador automático gerenciado

Quando você ativa o escalonador automático gerenciado, o Spanner ajusta automaticamente o tamanho da instância. É possível ativar o escalonador automático gerenciado na instância ou partição de instância do Spanner (em Prévia). O recurso de escalonamento automático gerenciado reage a mudanças na carga de trabalho ou nas necessidades de armazenamento da instância à medida que a carga aumenta ou diminui. O autoescalador gerenciado aumenta a escala, adicionando capacidade de computação à instância, ou reduz a escala, removendo a capacidade de computação da instância.

Ao configurar o escalonador automático gerenciado, você pode usar unidades de processamento para instâncias pequenas ou nós para instâncias grandes. Neste documento, usamos o termo capacidade de computação para nos referirmos a nós ou unidades de processamento.

O escalonador automático gerenciado do Spanner determina a capacidade de computação necessária com base no seguinte:

  • Meta de utilização de CPU de alta prioridade
  • Meta de utilização total da CPU
  • Meta de uso do armazenamento
  • Limite mínimo
  • Limite máximo

Cada dimensão de escalonamento gera um tamanho de instância recomendado, e o Spanner usa automaticamente o maior. Isso significa, por exemplo, que, se a instância precisar de 10 nós para atingir a meta de utilização do armazenamento, mas de 12 para atingir a meta de utilização da CPU, o Spanner vai escalonar a instância para 12 nós.

À medida que a quantidade de capacidade de computação muda, o Spanner otimiza continuamente o armazenamento. Ele reequilibra os dados em todos os servidores para garantir que o tráfego seja distribuído de maneira uniforme e nenhum servidor individual seja sobrecarregado. Saiba mais em Limitações.

Se o escalonador automático gerenciado aumentar uma instância até o limite máximo, mas a carga de trabalho ainda estiver causando um uso da CPU maior do que a meta, as solicitações de carga de trabalho poderão ter uma latência maior ou falhar. Se uma instância for escalonada verticalmente até a capacidade máxima de computação, mas a carga de trabalho precisar de mais armazenamento do que o limite máximo, as solicitações de gravação poderão falhar. Para saber se a meta máxima foi atingida, consulte os registros de eventos do sistema do escalonador automático gerenciado no console do Google Cloud na página Insights do sistema. Para mais informações, consulte limites de armazenamento.

Quando o Spanner reduz uma instância, ele remove a capacidade de computação em uma taxa mais lenta do que ao escalonar verticalmente, para reduzir qualquer impacto na latência.

É possível escolher o escalonamento automático assimétrico de réplicas somente leitura nas instâncias. Não é possível fazer o escalonamento automático assimétrico de partições de instâncias. Para mais informações, consulte Escalonamento automático de somente leitura assimétrica.

Preços

Seus custos totais do Spanner podem ser menores ou maiores, dependendo de como você configurou a instância ou a partição de instância do Spanner antes de ativar o escalonador automático gerenciado e os limites definidos para ele.

Por exemplo, se você configurava manualmente sua instância do Spanner para ter capacidade de computação suficiente para lidar com picos de carga de trabalho a qualquer momento, seus custos com o escalonador automático gerenciado podem ser menores porque ele reduz a capacidade de computação quando a instância está inativa.

Se você configurava manualmente sua instância do Spanner para ter capacidade de computação suficiente para cargas de trabalho médias e a performance geral diminui quando o tráfego da carga de trabalho aumenta, seus custos com o escalonador automático gerenciado podem ser mais altos porque ele pode aumentar a capacidade de computação quando a instância está ocupada. No entanto, isso oferece aos usuários uma performance mais consistente.

É possível limitar o custo máximo da sua instância do Spanner definindo o limite máximo de nós ou unidades de processamento para o nível que você quer gastar.

Você pode notar um aumento na capacidade de computação usada e, portanto, um aumento nos custos ao definir uma meta de utilização total da CPU na instância do Spanner em comparação com a definição de uma meta de utilização da CPU de alta prioridade. No entanto, o usuário final tem uma experiência muito melhor e um desempenho aprimorado quando essa opção está definida.

Limitações

As limitações a seguir se aplicam quando você ativa ou muda o recurso de escalonamento automático gerenciado em uma instância ou partição de instância:

  • Não é possível mover uma instância quando o recurso de escalonador automático gerenciado está ativado. Primeiro, desative o escalonador automático gerenciado e mova a instância. Depois de mover a instância, você pode reativar o escalonador automático gerenciado.
  • Defina o limite mínimo na instância de escalonamento automático como 1.000 unidades de processamento ou mais, ou 1 nó ou mais.
  • Quando você ativa o escalonamento automático em uma instância atual, a capacidade dela pode ser menor que o valor mínimo do limite que você configura no escalonador automático gerenciado. No entanto, a instância é escalonada automaticamente até o valor mínimo configurado quando você a inicia. Por exemplo, se a instância tiver um nó, mas você definir o valor mínimo como dois nós, quando iniciar a instância, ela será escalonada automaticamente para dois nós.
  • Não é possível fazer o escalonamento automático assimétrico de partições de instâncias.
  • Se o número de linhas de posição na sua partição for maior que 100 milhões, não ative o escalonamento automático. Esse é um limite de geosegmentação.

Parâmetros do escalonador automático gerenciado

Ao criar ou editar uma instância ou partição de instância e ativar o escalonador automático gerenciado, você define os valores mostrados na tabela a seguir.

Parâmetro Descrição
Meta de utilização de CPU de alta prioridade Uma porcentagem da capacidade da CPU da instância para usar em tarefas de alta prioridade. Esse valor precisa estar entre 10% e 90%. Quando a utilização da CPU de alta prioridade de uma instância excede a meta definida, o Spanner adiciona imediatamente capacidade de computação à instância. Quando a utilização da CPU é substancialmente menor que a meta, o Spanner remove a capacidade de computação. Para mais informações, consulte Determinar a meta de utilização de CPU de alta prioridade.
Meta de utilização total da CPU Uma porcentagem da capacidade total da CPU da instância a ser usada para tarefas de alta, média e baixa prioridade. Esse valor precisa estar entre 10% e 90%. Quando a utilização total da CPU de uma instância excede a meta definida, o Spanner adiciona imediatamente capacidade de computação à instância. Quando a utilização total da CPU é substancialmente menor que a meta, o Spanner remove a capacidade de computação. Para mais informações, consulte Determinar a meta de utilização total da CPU.
Meta de uso do armazenamento A porcentagem de armazenamento em um nó que pode ser usada antes do escalonamento vertical do Spanner. Essa meta garante que você sempre tenha capacidade de computação suficiente para lidar com flutuações na quantidade de dados armazenados. Esse valor precisa estar entre 10 e 99%. Para orientações, consulte Determinar a meta de utilização do armazenamento.
Limite mínimo A menor quantidade de capacidade de computação para que o Spanner reduz a instância. O valor mínimo não pode ser inferior a 10% do valor definido para o limite máximo. Por exemplo, se o limite máximo for 40 nós, o limite mínimo precisará ser de pelo menos 4 nós. O requisito de 10% é um limite absoluto. Para orientações, consulte Determinar o limite mínimo.
Limite máximo A maior quantidade de capacidade de computação que o Spanner pode escalonar verticalmente para a instância. Para nós, esse valor precisa ser maior que um nó (ou 1.000 unidades de processamento) e igual ou maior que o número mínimo de nós ou unidades de processamento. O valor não pode ser superior a 10 vezes o número escolhido para a quantidade mínima de capacidade de computação. Esse requisito de 10 vezes é um limite absoluto. Para orientações, consulte Determinar o limite máximo.

Configurar o escalonador automático gerenciado

Nesta seção, descrevemos como determinar quais números escolher para os parâmetros do escalonador automático gerenciado. Depois de definir os valores iniciais, monitore a instância e ajuste os números conforme necessário.

Determinar a meta de uso da CPU de alta prioridade

A meta ideal para sua instância ou partição de instância depende dos requisitos de latência e capacidade da carga de trabalho. Para conferir nossas recomendações de uso máximo da CPU para configurações de instâncias regionais, de duas regiões e multirregionais, consulte Alertas para alta utilização da CPU.

Quando a utilização da CPU está perto ou acima de 100%, o desempenho pode ser prejudicado. Se a carga de trabalho for sensível à latência ou ao desempenho, considere personalizar a meta total de CPU para um valor menor. Isso pode gerar custos mais altos.

Em geral, se a latência estiver alta demais, reduza a meta de uso da CPU.

Também é possível configurar metas para o uso total e de alta prioridade da CPU. Para mais informações, consulte Determinar as duas metas de utilização da CPU.

Determinar a meta de utilização total da CPU

Quando você define a meta de uso total da CPU, o Spanner faz o escalonamento automático para garantir capacidade suficiente para tarefas de alta, média e baixa prioridade.

Se as cargas de trabalho forem sensíveis à latência ou se você quiser que as tarefas do sistema sejam concluídas mais cedo, defina a meta total de CPU para garantir que a instância tenha capacidade suficiente. Quando a meta total de CPU é definida, você pode pagar mais, mas seus aplicativos oferecem uma experiência melhor para os clientes.

Se a meta total de CPU estiver definida e você ainda observar uma latência inaceitavelmente alta, reduza a meta total de utilização da CPU.

Para otimizar a taxa de transferência de gravações e a criação de índices, recomendamos uma meta total de CPU de 70% para instâncias regionais e 50% para instâncias multirregionais. Isso também funciona bem durante o failover, se o destino de alta prioridade não for selecionado. No entanto, essas metas podem gerar custos mais altos. Se o custo for uma preocupação, recomendamos uma meta de CPU total de 85%. Isso fornece sobrecarga para absorver picos sem acionar latência causada por saturação de recursos (utilização de 100%).

Por padrão, o Spanner prioriza o tráfego voltado ao usuário limitando operações em segundo plano que consomem muitos recursos, como a criação de índices. É possível acelerar essas operações em segundo plano configurando uma meta de utilização total da CPU menor (por exemplo, <=60%). Isso sinaliza para o escalonador automático provisionar mais recursos de computação, aumentando a capacidade de transferência das tarefas do sistema. No entanto, isso pode aumentar os custos. Se você quiser aumentar temporariamente a taxa de transferência para a criação de índices, defina metas de CPU totais mais baixas até que a criação do índice seja concluída.

Também é possível configurar metas para o uso total e de alta prioridade da CPU. Para mais informações, consulte Determinar as duas metas de utilização da CPU.

Determinar as duas metas de utilização da CPU

Se você configurar metas para o uso total da CPU e da CPU de alta prioridade, o escalonador automático vai avaliar as duas métricas simultaneamente. Em seguida, ele seleciona o maior dos dois números recomendados de nós ou unidades de processamento. Isso garante que a instância seja escalonada verticalmente para atender ao requisito mais exigente, mantendo o desempenho para cargas de trabalho críticas enquanto conclui tarefas em segundo plano.

Quando as metas de uso da CPU de alta prioridade e total são definidas, o uso da CPU para tarefas de alta prioridade faz parte desse total, junto com tarefas de baixa e média prioridade. O valor da meta de utilização de CPU de alta prioridade precisa ser menor que a meta de utilização total da CPU quando ambas as opções estão selecionadas.

Em geral, se a latência estiver alta demais, reduza a meta de uso da CPU.

Em geral, recomendamos as seguintes metas de utilização da CPU para failover confiável:

Tipo de instância Meta de utilização total da CPU Meta de utilização de CPU de alta prioridade
Instância regional 70% 65%
Instância multirregional 50% 45%

Dependendo da sua carga de trabalho, também recomendamos as seguintes metas de utilização da CPU mais específicas:

Tipo de carga de trabalho Metas de CPU recomendadas Compensação
Carga de trabalho sensível à capacidade de processamento e com muitas gravações Meta de uso total da CPU: 70% Maior capacidade à custa da latência
Carga de trabalho sensível à latência e com muitas leituras Meta de utilização total da CPU: 80%

Meta de utilização de CPU de alta prioridade: 65% (regional) ou 45% (multirregional)
Latência de cauda previsível a um custo maior
Carga de trabalho que prioriza a eficiência de custos Meta de utilização total da CPU: 85%

Meta de utilização de CPU de alta prioridade: 65% (regional) ou 45% (multirregional)
Custo e desempenho razoáveis com criação de índice potencialmente atrasada

Determinar a meta de utilização do armazenamento

Para o escalonamento automático, a meta de utilização do armazenamento é expressa como uma porcentagem por nó. Para instâncias ou partições de instância com 1 nó (1.000 unidades de processamento) e maiores, o tamanho do armazenamento é limitado a 10 TiB por nó.

Determinar o limite máximo

O valor escolhido como a quantidade máxima de capacidade de computação é igual à quantidade de capacidade de computação que a instância ou partição de instância precisa para lidar com o tráfego mais intenso, mesmo que esse volume não seja atingido na maior parte do tempo. O Spanner nunca é escalonado para mais capacidade de computação do que o necessário. Pense também nesse número como a maior quantidade de capacidade de computação que você quer pagar. Para mais informações sobre valores aceitos, consulte Parâmetros do escalonador automático.

O limite máximo precisa permitir a meta de uso da CPU e a meta de uso de armazenamento que você definiu para o escalonamento automático.

  • Se você estiver mudando uma instância de alocação manual para escalonamento automático gerenciado, encontre a maior quantidade de capacidade de computação que a instância teve nos últimos um ou dois meses. O limite máximo do escalonador automático gerenciado precisa ser pelo menos esse valor.

  • Se você estiver ativando o escalonador automático gerenciado para uma nova instância, consulte as métricas de outras instâncias e use-as como guia ao definir o limite máximo.

  • Se você tiver uma nova carga de trabalho e não tiver certeza de como ela vai crescer, calcule a quantidade de capacidade de computação necessária para atingir a meta de uso do armazenamento integrado e ajuste o número depois.

Você também precisa saber quanta cota resta no nó, porque o escalonador automático gerenciado não pode configurar a instância para ter mais capacidade de computação do que a cota. Para mais informações, consulte Limites de nós.

Depois que a instância estiver em execução com o escalonamento automático ativado, monitore a instância e verifique se o valor escolhido para o limite máximo é pelo menos tão alto quanto o limite recomendado para a meta de CPU e o limite recomendado para a meta de armazenamento.

Determinar o limite mínimo

Defina um limite mínimo para o escalonador automático gerenciado para garantir que sua instância ou partição de instância do Spanner possa reduzir escala vertical para o tamanho menor e mais econômico. O Spanner impede automaticamente que a contagem de nós fique abaixo do mínimo necessário para manter as metas de uso de CPU e armazenamento.

O menor valor mínimo permitido pelo escalonador automático gerenciado é 1 nó ou 1.000 unidades de processamento. Quando você ativa o escalonamento automático para uma instância que tem menos capacidade do que o valor mínimo configurado para o escalonador automático gerenciado, a instância é escalonada automaticamente para esse mínimo quando você a inicia.

Depois de iniciar a instância com escalonamento automático gerenciado, faça um teste inicial para garantir que ela funcione no tamanho mínimo definido. Teste de novo periodicamente para garantir que ele continue funcionando como esperado.

Para mais informações sobre os valores aceitos, consulte Parâmetros do escalonador automático gerenciado.

Em muitos casos, convém definir o valor mínimo como maior que um. Escolha um número maior ou aumente o limite mínimo nas seguintes situações:

  • Você tem um evento de escalonamento de pico futuro e espera que o tráfego aumente temporariamente. Por isso, quer garantir que a capacidade de computação seja suficiente.
  • Seu aplicativo envia tráfego com picos. Quando você adiciona nova capacidade de computação, o Spanner faz o rebalanceamento automático para usar os novos nós ou unidades de processamento. Como esse processo pode levar vários minutos, talvez seja melhor adotar uma abordagem conservadora e escolher um valor mínimo mais alto. Assim, sua instância se adapta aos picos sem problemas.
  • Você aumenta a capacidade máxima de computação. O mínimo precisa ser sempre 10% ou mais da meta de capacidade máxima de computação. Por exemplo, se você definir o número máximo de nós como 30, o número mínimo de nós precisará ser pelo menos 3.

Se você aumentar o valor da capacidade mínima de computação em uma instância, o Spanner vai tentar imediatamente escalonar a instância para o novo mínimo. As restrições padrão se aplicam. Quando você fica sem cota, sua solicitação para mudar a configuração do escalonador automático gerenciado falha e a configuração não é atualizada.

Depois de configurar o escalonador automático gerenciado pela primeira vez e periodicamente depois disso, teste sua instância para garantir que ela funcione no tamanho mínimo.

Flags de parâmetros e limitações da Google Cloud CLI

Ao usar a Google Cloud CLI para configurar o escalonador automático gerenciado, há algumas flags obrigatórias que você precisa definir. Há flags opcionais que você usa para indicar se quer usar nós ou unidades de processamento. Para mais informações sobre como criar uma nova instância ou partição de instância com o escalonador automático gerenciado ou ativar o escalonador automático gerenciado em uma instância ou partição de instância atual, consulte os seguintes guias de instruções:

As seguintes flags são necessárias ao ativar o escalonador automático gerenciado na sua instância:

  • autoscaling-high-priority-cpu-percent
  • autoscaling-total-cpu-percent
  • autoscaling-storage-percent

Ao definir a porcentagem de CPU, é possível selecionar uma ou ambas as opções.

Se você optar por usar nós, também precisará usar as duas flags a seguir ao ativar o escalonador automático gerenciado:

  • autoscaling-min-nodes
  • autoscaling-max-nodes

Se você escolher usar unidades de processamento, também precisará usar as duas flags a seguir ao ativar o escalonador automático gerenciado:

  • autoscaling-min-processing-units
  • autoscaling-max-processing-units

As seguintes limitações se aplicam ao adicionar o escalonador automático gerenciado a uma instância atual usando a Google Cloud CLI:

  • Não é possível usar a flag --nodes com as flags --autoscaling-min-nodes ou --autoscaling-max-nodes porque o uso de --nodes define um número específico de nós em vez de um intervalo de escalonamento. Da mesma forma, não é possível usar a flag --processing-units com as flags autoscaling-min-processing-units ou autoscaling-max-processing-units porque o uso de --processing-units define um número específico de unidades de processamento em vez de um intervalo de escalonamento.
  • Não é possível misturar as flags para nós e unidades de processamento. Por exemplo, não é possível usar --autoscaling-max-nodes com autoscaling-min-processing-units.

Ajustar as configurações

Fique de olho no uso da capacidade de computação e ajuste as configurações, se necessário, principalmente depois de ativar o escalonador automático gerenciado pela primeira vez. Recomendamos usar a página Insights do sistema no console do Google Cloud .

Escalonamento automático de somente leitura assimétrica

Depois de ativar o escalonador automático gerenciado, você também pode ativar e escalonar automaticamente suas réplicas somente leitura de forma independente de outras réplicas. Com o escalonamento automático de somente leitura assimétrica, é possível controlar os limites de capacidade de computação e as metas de utilização da CPU das regiões somente leitura com base no uso delas. Isso otimiza os padrões de tráfego de leitura local e melhora a eficiência de custos. Os seguintes parâmetros de configuração do escalonamento automático podem ser configurados para cada região de réplica somente leitura:

  • Limite mínimo de capacidade de computação
  • Limite máximo de capacidade de computação
  • Meta de utilização de CPU de alta prioridade
  • Meta de utilização total da CPU
  • Desativar o total da CPU
  • Desativar a CPU de alta prioridade

É possível ativar o escalonamento automático assimétrico e configurar esses parâmetros ao criar uma instância ou atualizar uma instância atual.

Para cada réplica, as seguintes regras se aplicam quando você ativa o escalonamento automático assimétrico em uma instância atual:

  • Se a capacidade de computação atual da réplica estiver entre o mínimo e o máximo do escalonamento automático definidos para a região, ela não vai mudar.
  • Se a capacidade de computação atual da réplica estiver abaixo do mínimo de escalonamento automático definido para a região, ela será ajustada para corresponder ao mínimo de escalonamento automático.
  • Se a capacidade de computação atual da réplica estiver acima do máximo de escalonamento automático definido para a região, ela será ajustada para corresponder ao máximo de escalonamento automático.
  • Se as duas metas de CPU estiverem definidas no nível básico e você quiser desativar a meta de CPU no nível da réplica, use explicitamente disable_total_cpu_autoscaling ou disable_high_priority_cpu_autoscaling.

Além disso, ao usar o escalonador automático assimétrico, recomendamos definir o mesmo conjunto de metas em todas as réplicas para garantir um comportamento consistente de escalonamento automático durante eventos de failover. Para mais informações, consulte Problemas de failover.

Problemas de failover

Para manter a alta disponibilidade e o desempenho durante uma interrupção, verifique se a instância tem capacidade de computação suficiente para lidar com o tráfego se uma zona (para instâncias regionais) ou uma região inteira (para instâncias birregionais e multirregionais) ficar indisponível.

Ao usar o escalonador automático assimétrico, é fundamental aplicar as mesmas metas de utilização em todas as réplicas. Configurações inconsistentes podem causar gargalos de capacidade durante um failover.

Pense no seguinte cenário:

  • A réplica A é configurada com metas de CPU de alta prioridade e total.
  • A réplica B é configurada apenas com uma meta de CPU de alta prioridade.

Se um failover transferir o tráfego da réplica A para a réplica B, a réplica B só será escalonada com base em solicitações de alta prioridade. Consequentemente, tarefas de prioridade média e baixa (como processos do sistema em segundo plano ou consultas analíticas) não acionam o escalonamento automático necessário na réplica B, o que pode levar à falta de tarefas ou aumento da latência para cargas de trabalho não críticas.

Para evitar problemas, recomendamos o seguinte:

  • Sempre defina metas de escalonamento automático idênticas em todas as réplicas para garantir um comportamento consistente. Por exemplo, considere um cenário em que você configura uma réplica somente leitura com uma meta de CPU de alta prioridade e uma meta de CPU total. Se a réplica de leitura e gravação definir apenas a meta de CPU de alta prioridade, durante o failover, o tráfego de prioridade média e baixa não vai acionar o escalonamento automático na réplica de leitura e gravação.
  • Verifique se a utilização desejada tem capacidade para bursts de tráfego que ocorrem quando uma réplica precisa absorver repentinamente a carga de um peer com falha.
  • Revise periodicamente as métricas do Cloud Monitoring para verificar se as réplicas secundárias têm a capacidade necessária para oferecer suporte ao tráfego combinado da implantação principal.

Controle de acesso

Para configurar o escalonador automático gerenciado, você precisa ser o principal em um papel que tenha permissões de criação e atualização para a instância ou partição de instância que você está configurando.

Monitoramento

O Spanner fornece várias métricas para ajudar você a entender como o escalonador automático gerenciado funciona, conforme ele aumenta e reduz os requisitos da carga de trabalho. As métricas também podem ajudar a avaliar se as configurações são ideais para atender aos requisitos de carga de trabalho e custo da sua empresa. Por exemplo, se a contagem de nós de uma instância ou partição de instância estiver próxima do número máximo de nós, considere aumentar o valor máximo. Para saber mais sobre como monitorar seus recursos do Spanner, consulte Monitorar instâncias com o Cloud Monitoring.

As métricas a seguir são mostradas em gráficos na página Insights do sistema no console do Google Cloud . Também é possível visualizar essas métricas usando o Cloud Monitoring.

  • spanner.googleapis.com/instance/autoscaling/min_node_count
  • spanner.googleapis.com/instance/autoscaling/max_node_count
  • spanner.googleapis.com/instance/autoscaling/min_processing_units
  • spanner.googleapis.com/instance/autoscaling/max_processing_units
  • spanner.googleapis.com/instance/autoscaling/high_priority_cpu_target_utilization
  • spanner.googleapis.com/instance/autoscaling/total_cpu_target_utilization
  • spanner.googleapis.com/instance/autoscaling/storage_target_utilization

Logging

O Spanner cria um registro de auditoria de eventos do sistema sempre que escalona uma instância ou partição de instância. Cada registro de evento tem um texto de descrição e metadados relacionados ao evento de escalonamento automático.

Ver registros na página "Insights do sistema"

É possível conferir os registros de eventos do sistema do escalonador automático gerenciado no console doGoogle Cloud na página Insights do sistema.

  1. No console do Google Cloud , abra o Spanner:

    Acessar o Spanner

  2. Selecione a instância ou partição de instância com escalonamento automático ativado.

  3. No menu de navegação, clique em Insights do sistema.

  4. Na página "Insights do sistema", navegue até a métrica Capacidade de computação.

  5. Clique em Ver registros para abrir o painel de registros.

    O painel Registros de capacidade de computação mostra os registros da última hora.

    Se o escalonamento automático somente leitura assimétrico estiver ativado para sua instância, o resumo do registro vai fornecer uma descrição e a localização de todas as mudanças na capacidade de computação de cada réplica. Por exemplo, Increased from 1 to 2 nodes in us-central1 to maintain high priority CPU utilization at 80% Se você não estiver usando o escalonamento automático assimétrico, as informações de local não serão fornecidas no resumo do registro. Por exemplo, Increased from 9 to 10 nodes to maintain high priority CPU utilization at 65%. Você também pode ver quando os nós são aumentados para manter a meta de utilização total da CPU.

Ver registros usando a Análise de registros

Também é possível conferir os registros usando a Análise de registros:

  1. No console do Google Cloud , abra o Explorador de registros:

    Acesse o Explorador de registros

  2. Selecione o projeto Google Cloud adequado.

  3. No campo Consulta, insira:

     protoPayload.methodName="AutoscaleInstance"
    

    Você pode adicionar a seguinte consulta para filtrar ainda mais os registros:

    resource.type="spanner_instance"
    resource.labels.instance_id=INSTANCE_ID
    resource.labels.project_id=PROJECT_ID
    logName="projects/PROJECT_ID/logs/cloudaudit.googleapis.com%2Fsystem_event"
    protoPayload.methodName="AutoscaleInstance"

    Para ver os registros de consultas executadas em uma partição de instância não padrão, insira:

    resource.type="spanner_instance"
    resource.labels.instance_id=INSTANCE_ID
    resource.labels.project_id=PROJECT_ID
    logName="projects/PROJECT_ID/logs/cloudaudit.googleapis.com%2Fsystem_event"
    protoPayload.methodName="AutoscaleInstancePartition"
  4. Clique em Executar consulta.

O painel Resultados da consulta exibirá os registros da última hora.

Para saber mais sobre como visualizar registros, consulte Cloud Logging. É possível configurar alertas com base em registros na página Análise de registros no Google Cloud ou usando a API Cloud Monitoring.

A seguir