Coletar registros do Sentry
Este documento explica como ingerir registros do Sentry no Google Security Operations usando o Google Cloud Storage. O Sentry gera dados operacionais na forma de eventos, problemas, dados de monitoramento de desempenho e informações de rastreamento de erros. Com essa integração, é possível enviar esses registros ao Google SecOps para análise e monitoramento, oferecendo visibilidade de erros de aplicativos, problemas de desempenho e interações do usuário nos aplicativos monitorados pelo Sentry.
Antes de começar
Verifique se você atende os seguintes pré-requisitos:
- Uma instância do Google SecOps
- Um projeto do GCP com a API Cloud Storage ativada
- Permissões para criar e gerenciar buckets do GCS
- Permissões para gerenciar políticas do IAM em buckets do GCS
- Permissões para criar funções do Cloud Run, tópicos do Pub/Sub e jobs do Cloud Scheduler
- Acesso privilegiado ao locatário do Sentry (token de autenticação com escopos de API)
Coletar pré-requisitos do Sentry (IDs, chaves de API, IDs de organização, tokens)
- Faça login no Sentry.
- Encontre o slug da organização:
- Acesse Configurações > Organização > Configurações > ID da organização. O slug aparece ao lado do nome da organização.
- Crie um token de autenticação:
- Acesse Configurações > Configurações do desenvolvedor > Tokens pessoais.
- Clique em Criar novo token.
- Escopos (mínimo):
org:read,project:read,event:read. - Clique em Criar token.
- Copie o valor do token (mostrado uma vez). Isso é usado como:
Authorization: Bearer <token>.
Se você tiver hospedagem própria, anote o URL base (por exemplo,
https://<your-domain>). Caso contrário, usehttps://sentry.io.
Criar um bucket do Google Cloud Storage
- Acesse o Console do Google Cloud.
- Selecione seu projeto ou crie um novo.
- No menu de navegação, acesse Cloud Storage > Buckets.
- Clique em Criar bucket.
Informe os seguintes detalhes de configuração:
Configuração Valor Nomeie seu bucket Insira um nome exclusivo globalmente, por exemplo, sentry-logs.Tipo de local Escolha com base nas suas necessidades (região, birregional, multirregional) Local Selecione o local (por exemplo, us-central1).Classe de armazenamento Padrão (recomendado para registros acessados com frequência) Controle de acesso Uniforme (recomendado) Ferramentas de proteção Opcional: ativar o controle de versões de objetos ou a política de retenção Clique em Criar.
Criar uma conta de serviço para a função do Cloud Run
A função do Cloud Run precisa de uma conta de serviço com permissões para gravar no bucket do GCS e ser invocada pelo Pub/Sub.
Criar conta de serviço
- No Console do GCP, acesse IAM e administrador > Contas de serviço.
- Clique em Criar conta de serviço.
- Informe os seguintes detalhes de configuração:
- Nome da conta de serviço: insira
sentry-logs-collector-sa. - Descrição da conta de serviço: insira
Service account for Cloud Run function to collect Sentry logs.
- Nome da conta de serviço: insira
- Clique em Criar e continuar.
- Na seção Conceder acesso a essa conta de serviço ao projeto, adicione os seguintes papéis:
- Clique em Selecionar papel.
- Pesquise e selecione Administrador de objetos do Storage.
- Clique em + Adicionar outro papel.
- Pesquise e selecione Invocador do Cloud Run.
- Clique em + Adicionar outro papel.
- Pesquise e selecione Invocador do Cloud Functions.
- Clique em Continuar.
- Clique em Concluído.
Esses papéis são necessários para:
- Administrador de objetos do Storage: grava registros em um bucket do GCS e gerencia arquivos de estado.
- Invocador do Cloud Run: permite que o Pub/Sub invoque a função
- Invocador do Cloud Functions: permite a invocação de funções
Conceder permissões do IAM no bucket do GCS
Conceda permissões de gravação à conta de serviço no bucket do GCS:
- Acesse Cloud Storage > Buckets.
- Clique no nome do bucket.
- Acesse a guia Permissões.
- Clique em Conceder acesso.
- Informe os seguintes detalhes de configuração:
- Adicionar principais: insira o e-mail da conta de serviço (por exemplo,
sentry-logs-collector-sa@PROJECT_ID.iam.gserviceaccount.com). - Atribuir papéis: selecione Administrador de objetos do Storage.
- Adicionar principais: insira o e-mail da conta de serviço (por exemplo,
- Clique em Salvar.
Criar tópico Pub/Sub
Crie um tópico do Pub/Sub em que o Cloud Scheduler vai publicar e a função do Cloud Run vai se inscrever.
- No Console do GCP, acesse Pub/Sub > Tópicos.
- Selecione Criar tópico.
- Informe os seguintes detalhes de configuração:
- ID do tópico: insira
sentry-logs-trigger. - Não altere as outras configurações.
- ID do tópico: insira
- Clique em Criar.
Criar uma função do Cloud Run para coletar registros
A função do Cloud Run é acionada por mensagens do Pub/Sub do Cloud Scheduler para buscar registros da API Sentry e gravá-los no GCS.
- No console do GCP, acesse o Cloud Run.
- Clique em Criar serviço.
- Selecione Função (use um editor in-line para criar uma função).
Na seção Configurar, forneça os seguintes detalhes de configuração:
Configuração Valor Nome do serviço sentry-logs-collectorRegião Selecione a região que corresponde ao seu bucket do GCS (por exemplo, us-central1).Ambiente de execução Selecione Python 3.12 ou uma versão mais recente. Na seção Acionador (opcional):
- Clique em + Adicionar gatilho.
- Selecione Cloud Pub/Sub.
- Em Selecionar um tópico do Cloud Pub/Sub, escolha o tópico (
sentry-logs-trigger). - Clique em Salvar.
Na seção Autenticação:
- Selecione Exigir autenticação.
- Confira o Identity and Access Management (IAM).
Role a tela para baixo e abra Contêineres, rede, segurança.
Acesse a guia Segurança:
- Conta de serviço: selecione a conta de serviço (
sentry-logs-collector-sa).
- Conta de serviço: selecione a conta de serviço (
Acesse a guia Contêineres:
- Clique em Variáveis e secrets.
- Clique em + Adicionar variável para cada variável de ambiente:
Nome da variável Valor de exemplo Descrição GCS_BUCKETsentry-logsNome do bucket do GCS em que os dados serão armazenados. GCS_PREFIXsentry/events/Prefixo opcional do GCS (subpasta) para objetos. STATE_KEYsentry/events/state.jsonChave opcional do arquivo de estado/checkpoint. SENTRY_ORGyour-org-slugSlug da organização do Sentry. SENTRY_AUTH_TOKENsntrys_************************Token de autenticação do Sentry com org:read, project:read, event:read. SENTRY_API_BASEhttps://sentry.ioURL base da API Sentry (autohospedado: https://<your-domain>).MAX_PROJECTS100Número máximo de projetos a serem processados. MAX_PAGES_PER_PROJECT5Número máximo de páginas por projeto e execução. Role a tela para baixo na guia Variáveis e secrets até Solicitações:
- Tempo limite da solicitação: insira
600segundos (10 minutos).
- Tempo limite da solicitação: insira
Acesse a guia Configurações em Contêineres:
- Na seção Recursos:
- Memória: selecione 512 MiB ou mais.
- CPU: selecione 1.
- Clique em Concluído.
- Na seção Recursos:
Role até Ambiente de execução:
- Selecione Padrão (recomendado).
Na seção Escalonamento de revisão:
- Número mínimo de instâncias: insira
0. - Número máximo de instâncias: insira
100ou ajuste com base na carga esperada.
- Número mínimo de instâncias: insira
Clique em Criar.
Aguarde a criação do serviço (1 a 2 minutos).
Depois que o serviço é criado, o editor de código inline é aberto automaticamente.
Adicionar código da função
- Insira main em Ponto de entrada da função.
No editor de código em linha, crie dois arquivos:
- Primeiro arquivo: main.py::
import functions_framework from google.cloud import storage import json import os import urllib3 from datetime import datetime, timezone import time # Initialize HTTP client http = urllib3.PoolManager() # Initialize Storage client storage_client = storage.Client() @functions_framework.cloud_event def main(cloud_event): """ Cloud Run function triggered by Pub/Sub to fetch Sentry events and write to GCS. Args: cloud_event: CloudEvent object containing Pub/Sub message """ # Get environment variables bucket_name = os.environ.get('GCS_BUCKET') prefix = os.environ.get('GCS_PREFIX', 'sentry/events/') state_key = os.environ.get('STATE_KEY', 'sentry/events/state.json') org = os.environ.get('SENTRY_ORG', '').strip() token = os.environ.get('SENTRY_AUTH_TOKEN', '').strip() api_base = os.environ.get('SENTRY_API_BASE', 'https://sentry.io').rstrip('/') max_projects = int(os.environ.get('MAX_PROJECTS', '100')) max_pages_per_project = int(os.environ.get('MAX_PAGES_PER_PROJECT', '5')) if not all([bucket_name, org, token]): print('Error: Missing required environment variables') return try: # Get GCS bucket bucket = storage_client.bucket(bucket_name) # Load state state = load_state(bucket, state_key) state.setdefault('projects', {}) # Get list of projects projects = list_projects(api_base, org, token, max_projects) print(f'Found {len(projects)} projects') summary = [] # Process each project for slug in projects: start_prev = state['projects'].get(slug, {}).get('prev_cursor') res = fetch_project_events( api_base, org, token, slug, start_prev, max_pages_per_project, bucket, prefix ) if res.get('store_prev_cursor'): state['projects'][slug] = {'prev_cursor': res['store_prev_cursor']} summary.append(res) # Save state save_state(bucket, state_key, state) print(f'Successfully processed {len(projects)} projects') print(f'Summary: {json.dumps(summary)}') except Exception as e: print(f'Error processing logs: {str(e)}') raise def load_state(bucket, key): """Load state from GCS.""" try: blob = bucket.blob(key) if blob.exists(): state_data = blob.download_as_text() return json.loads(state_data) if state_data else {'projects': {}} except Exception as e: print(f'Warning: Could not load state: {str(e)}') return {'projects': {}} def save_state(bucket, key, state): """Save state to GCS.""" try: blob = bucket.blob(key) blob.upload_from_string( json.dumps(state, separators=(',', ':')), content_type='application/json' ) except Exception as e: print(f'Warning: Could not save state: {str(e)}') def sentry_request(api_base, token, path, params=None): """Make request to Sentry API.""" url = f"{api_base}{path}" if params: url = f"{url}?{urllib3.request.urlencode(params)}" headers = { 'Authorization': f'Bearer {token}', 'Accept': 'application/json', 'User-Agent': 'chronicle-gcs-sentry-function/1.0' } response = http.request('GET', url, headers=headers, timeout=60.0) data = json.loads(response.data.decode('utf-8')) link = response.headers.get('Link') return data, link def parse_link_header(link_header): """Parse Link header to extract cursors.""" if not link_header: return None, False, None, False prev_cursor, next_cursor = None, None prev_more, next_more = False, False parts = [p.strip() for p in link_header.split(',')] for p in parts: if '<' not in p or '>' not in p: continue url = p.split('<', 1)[1].split('>', 1)[0] rel = 'previous' if 'rel="previous"' in p else ('next' if 'rel="next"' in p else None) has_more = 'results="true"' in p try: from urllib.parse import urlparse, parse_qs q = urlparse(url).query cur = parse_qs(q).get('cursor', [None])[0] except Exception: cur = None if rel == 'previous': prev_cursor, prev_more = cur, has_more elif rel == 'next': next_cursor, next_more = cur, has_more return prev_cursor, prev_more, next_cursor, next_more def write_page(bucket, prefix, project_slug, payload, page_idx): """Write page of events to GCS.""" ts = time.gmtime() key = f"{prefix.rstrip('/')}/{time.strftime('%Y/%m/%d', ts)}/sentry-{project_slug}-{page_idx:05d}.json" blob = bucket.blob(key) blob.upload_from_string( json.dumps(payload, separators=(',', ':')), content_type='application/json' ) return key def list_projects(api_base, org, token, max_projects): """List Sentry projects.""" projects, cursor = [], None while len(projects) < max_projects: params = {'cursor': cursor} if cursor else {} data, link = sentry_request(api_base, token, f'/api/0/organizations/{org}/projects/', params) for p in data: slug = p.get('slug') if slug: projects.append(slug) if len(projects) >= max_projects: break _, _, next_cursor, next_more = parse_link_header(link) cursor = next_cursor if next_more else None if not next_more: break return projects def fetch_project_events(api_base, org, token, project_slug, start_prev_cursor, max_pages, bucket, prefix): """Fetch events for a project.""" pages = 0 total = 0 latest_prev_cursor_to_store = None def fetch_one(cursor): nonlocal pages, total, latest_prev_cursor_to_store params = {'cursor': cursor} if cursor else {} data, link = sentry_request(api_base, token, f'/api/0/projects/{org}/{project_slug}/events/', params) write_page(bucket, prefix, project_slug, data, pages) total += len(data) if isinstance(data, list) else 0 prev_c, prev_more, next_c, next_more = parse_link_header(link) latest_prev_cursor_to_store = prev_c or latest_prev_cursor_to_store pages += 1 return prev_c, prev_more, next_c, next_more if start_prev_cursor: # Poll new pages toward "previous" until no more cur = start_prev_cursor while pages < max_pages: prev_c, prev_more, _, _ = fetch_one(cur) if not prev_more: break cur = prev_c else: # First run: start at newest, then backfill older pages prev_c, _, next_c, next_more = fetch_one(None) cur = next_c while next_more and pages < max_pages: _, _, next_c, next_more = fetch_one(cur) cur = next_c return { 'project': project_slug, 'pages': pages, 'written': total, 'store_prev_cursor': latest_prev_cursor_to_store } ``` * Second file: **requirements.txt:**functions-framework3.* google-cloud-storage2.* urllib3>=2.0.0 ```
Clique em Implantar para salvar e implantar a função.
Aguarde a conclusão da implantação (2 a 3 minutos).
Criar o job do Cloud Scheduler
O Cloud Scheduler publica mensagens no tópico do Pub/Sub em intervalos regulares, acionando a função do Cloud Run.
- No Console do GCP, acesse o Cloud Scheduler.
- Clique em Criar job.
Informe os seguintes detalhes de configuração:
Configuração Valor Nome sentry-logs-collector-hourlyRegião Selecione a mesma região da função do Cloud Run Frequência 0 * * * *(a cada hora, na hora)Fuso horário Selecione o fuso horário (UTC recomendado) Tipo de destino Pub/Sub Tópico Selecione o assunto ( sentry-logs-trigger)Corpo da mensagem {}(objeto JSON vazio)Clique em Criar.
Opções de frequência de programação
Escolha a frequência com base no volume de registros e nos requisitos de latência:
Frequência Expressão Cron Caso de uso A cada 5 minutos */5 * * * *Alto volume e baixa latência A cada 15 minutos */15 * * * *Volume médio A cada hora 0 * * * *Padrão (recomendado) A cada 6 horas 0 */6 * * *Baixo volume, processamento em lote Diário 0 0 * * *Coleta de dados históricos
Testar o job do programador
- No console do Cloud Scheduler, encontre seu job.
- Clique em Forçar execução para acionar manualmente.
- Aguarde alguns segundos e acesse Cloud Run > Serviços > sentry-logs-collector > Registros.
- Verifique se a função foi executada com sucesso.
- Verifique o bucket do GCS para confirmar se os registros foram gravados.
Recuperar a conta de serviço do Google SecOps
O Google SecOps usa uma conta de serviço exclusiva para ler dados do seu bucket do GCS. Você precisa conceder a essa conta de serviço acesso ao seu bucket.
Receber o e-mail da conta de serviço
- Acesse Configurações do SIEM > Feeds.
- Clique em Adicionar novo feed.
- Clique em Configurar um único feed.
- No campo Nome do feed, insira um nome para o feed (por exemplo,
Sentry Logs). - Selecione Google Cloud Storage V2 como o Tipo de origem.
- Selecione Sentry como o Tipo de registro.
Clique em Receber conta de serviço. Um e-mail exclusivo da conta de serviço é exibido, por exemplo:
chronicle-12345678@chronicle-gcp-prod.iam.gserviceaccount.comCopie esse endereço de e-mail para usar na próxima etapa.
Conceder permissões do IAM à conta de serviço do Google SecOps
A conta de serviço do Google SecOps precisa do papel de Leitor de objetos do Storage no seu bucket do GCS.
- Acesse Cloud Storage > Buckets.
- Clique no nome do bucket.
- Acesse a guia Permissões.
- Clique em Conceder acesso.
- Informe os seguintes detalhes de configuração:
- Adicionar participantes: cole o e-mail da conta de serviço do Google SecOps.
- Atribuir papéis: selecione Leitor de objetos do Storage.
Clique em Salvar.
Configurar um feed no Google SecOps para ingerir registros do Sentry
- Acesse Configurações do SIEM > Feeds.
- Clique em Adicionar novo feed.
- Clique em Configurar um único feed.
- No campo Nome do feed, insira um nome para o feed (por exemplo,
Sentry Logs). - Selecione Google Cloud Storage V2 como o Tipo de origem.
- Selecione Sentry como o Tipo de registro.
- Clique em Próxima.
Especifique valores para os seguintes parâmetros de entrada:
URL do bucket de armazenamento: insira o URI do bucket do GCS com o caminho do prefixo:
gs://sentry-logs/sentry/events/Substitua:
sentry-logs: o nome do bucket do GCS.sentry/events/: prefixo/caminho da pasta opcional onde os registros são armazenados (deixe em branco para a raiz).
Exemplos:
- Bucket raiz:
gs://company-logs/ - Com prefixo:
gs://company-logs/sentry-logs/ - Com subpasta:
gs://company-logs/sentry/events/
- Bucket raiz:
Opção de exclusão da fonte: selecione a opção de exclusão de acordo com sua preferência:
- Nunca: nunca exclui arquivos após as transferências (recomendado para testes).
- Excluir arquivos transferidos: exclui os arquivos após a transferência bem-sucedida.
Excluir arquivos transferidos e diretórios vazios: exclui arquivos e diretórios vazios após a transferência bem-sucedida.
Idade máxima do arquivo: inclui arquivos modificados no último número de dias. O padrão é de 180 dias.
Namespace do recurso: o namespace do recurso.
Rótulos de ingestão: o rótulo a ser aplicado aos eventos deste feed.
Clique em Próxima.
Revise a nova configuração do feed na tela Finalizar e clique em Enviar.
Precisa de mais ajuda? Receba respostas de membros da comunidade e profissionais do Google SecOps.