Vista geral da proteção de IA

A Proteção de IA ajuda a gerir a postura de segurança das suas cargas de trabalho de IA, detetando ameaças e ajudando a mitigar os riscos para o seu inventário de recursos de IA. Este documento oferece uma vista geral da proteção de IA, incluindo as respetivas vantagens e vários conceitos importantes.

Vista geral da proteção de IA

A proteção de IA oferece várias capacidades para ajudar a gerir ameaças e riscos aos seus sistemas de IA, incluindo o seguinte:

  • Avalie o seu inventário de IA: avalie e compreenda os seus sistemas de IA e recursos de IA, incluindo os seus modelos e conjuntos de dados.
  • Gerir riscos e conformidade: faça uma gestão proativa dos riscos para os seus recursos de IA e verifique se as suas implementações de IA cumprem as normas de segurança relevantes.
  • Mitigue os riscos legais e financeiros: reduza os riscos financeiros, de reputação e legais associados a violações de segurança e à não conformidade regulamentar.
  • Detetar e gerir ameaças: detete e responda a potenciais ameaças aos seus sistemas e recursos de IA em tempo útil.
  • Ver um painel de controlo: faça a gestão de todos os riscos e ameaças relacionados com a IA a partir de um painel de controlo centralizado.

Exemplos de utilização

A Proteção de IA ajuda as organizações a melhorar a respetiva segurança através da identificação e mitigação de ameaças e riscos relacionados com sistemas de IA e dados confidenciais. Os seguintes exemplos de utilização mostram como a proteção de IA pode ser usada em diferentes organizações:

  • Instituição de serviços financeiros: dados financeiros dos clientes

    Uma grande instituição de serviços financeiros usa modelos de IA que processam dados financeiros confidenciais.

    • Desafio: o processamento de dados financeiros altamente confidenciais com modelos de IA implica vários riscos, incluindo o risco de violações de dados, exfiltração de dados durante a preparação ou a inferência e vulnerabilidades na infraestrutura de IA subjacente.
    • Exemplo de utilização: a proteção de IA monitoriza continuamente os fluxos de trabalho de IA para detetar atividade suspeita, trabalha para detetar acesso não autorizado a dados e comportamento anómalo do modelo, realiza a classificação de dados confidenciais e ajuda a melhorar a sua conformidade com regulamentos como o PCI DSS e o RGPD.
  • Fornecedor de cuidados de saúde: privacidade e conformidade dos pacientes

    Um grande fornecedor de cuidados de saúde gere registos de saúde eletrónicos e usa a IA para diagnósticos e planeamento de tratamentos, lidando com informações de saúde protegidas (PHI).

    • Desafio: a PHI analisada por modelos de IA está sujeita a regulamentos rigorosos, como a HIPAA. Os riscos incluem a exposição acidental de IPH através de configurações incorretas ou ataques maliciosos que visam sistemas de IA para obter dados de pacientes.
    • Exemplo de utilização: a proteção de IA identifica e envia alertas sobre potenciais violações da HIPAA, deteta o acesso não autorizado a PHI por parte de modelos ou utilizadores, sinaliza serviços de IA vulneráveis e potencialmente configurados incorretamente, e monitoriza a fuga de dados.
  • Empresa de robótica e produção: propriedade intelectual proprietária

    Uma empresa de fabrico especializada em robótica avançada e automação depende fortemente da IA para otimizar as linhas de produção e o controlo robótico, com propriedade intelectual (PI) vital incorporada nos seus algoritmos de IA e dados de fabrico.

    • Desafio: os algoritmos de IA proprietários e os dados operacionais confidenciais estão vulneráveis a roubo por parte de ameaças internas ou adversários externos, o que pode levar a desvantagens competitivas ou interrupções operacionais.
    • Exemplo de utilização: a proteção de IA monitoriza o acesso não autorizado a modelos de IA e repositórios de código, deteta tentativas de exfiltração de modelos preparados e padrões de acesso a dados invulgares, e sinaliza vulnerabilidades em ambientes de desenvolvimento de IA para evitar o roubo de IP.

Regras de deteção de ameaças de eventos

As seguintes regras de deteção de ameaças de eventos executam deteções em recursos do Vertex AI:

  • Persistência: novo método da API de IA
  • Persistência: nova geografia para o serviço de IA
  • Aumento de privilégios: roubo de identidade anómalo da conta de serviço para atividade de administrador de IA
  • Elevação de privilégios: imitador anómalo de conta de serviço para acesso a dados de IA
  • Escalada de privilégios: delegação anómala de contas de serviço em vários passos para atividade de administrador de IA
  • Escalada de privilégios: delegação anómala de contas de serviço de vários passos para acesso a dados de IA
  • Escalada de privilégios: imitador anómalo de conta de serviço para atividade de administrador de IA
  • Acesso inicial: atividade de conta de serviço inativa no serviço de IA

Para mais informações sobre a Deteção de ameaças de eventos, consulte o artigo Vista geral da Deteção de ameaças de eventos.

Framework de proteção de IA

A proteção de IA consiste numa estrutura que inclui controlos específicos da nuvem que são implementados automaticamente no modo de deteção. O modo de deteção significa que o controlo na nuvem é aplicado aos recursos definidos para fins de monitorização. São detetadas violações e gerados alertas. Usa estruturas e controlos na nuvem para definir os seus requisitos de proteção de IA e aplicar esses requisitos ao seu Google Cloud ambiente. A proteção de IA inclui a estrutura predefinida, que define os controlos de base recomendados para a proteção de IA. Quando ativa a proteção de IA, a estrutura predefinida é aplicada automaticamente à organização no modo de deteção. Google Cloud

Se necessário, pode fazer cópias da estrutura para criar estruturas de proteção de IA personalizadas. Pode adicionar os controlos da nuvem às suas estruturas personalizadas e aplicá-las à organização, às pastas ou aos projetos. Por exemplo, pode criar frameworks personalizados que aplicam controlos jurisdicionais específicos a pastas específicas para garantir que os dados nessas pastas permanecem numa região geográfica específica.

Controlos na nuvem na estrutura de proteção de IA predefinida

Os seguintes controlos na nuvem fazem parte da framework de proteção de IA predefinida.

Nome do controlo da nuvem Descrição

Bloqueie a rede VPC predefinida para instâncias do Vertex AI Workbench

Não crie instâncias do Workbench na rede VPC predefinida para ajudar a impedir a utilização das respetivas regras de firewall predefinidas excessivamente permissivas.

Bloqueie a transferência de ficheiros na consola do JupyterLab

Não permita a transferência de ficheiros a partir da consola do JupyterLab em instâncias do Workbench para reduzir os riscos de exfiltração de dados e ajudar a evitar a distribuição de software malicioso.

Bloqueie o acesso à Internet para modelos dos ambientes de execução do Vertex AI

Não permita o acesso à Internet em modelos de tempo de execução do Colab Enterprise para reduzir a superfície de ataque externa e ajudar a evitar a potencial exfiltração de dados.

Bloqueie o endereço IP público para instâncias do Vertex AI Workbench

Não permita endereços IP externos para instâncias do Workbench para reduzir a exposição à Internet e minimizar o risco de acesso não autorizado.

Bloqueie o acesso raiz em instâncias do Vertex AI Workbench

Não permita o acesso de raiz em instâncias do Workbench para ajudar a evitar a modificação não autorizada de ficheiros críticos do sistema ou a instalação de software malicioso.

Ative as atualizações automáticas para instâncias do Vertex AI Workbench

Ative as atualizações automáticas para instâncias do Workbench para garantir o acesso às funcionalidades mais recentes, atualizações de frameworks e patches de segurança.

Ative as CMEK para tarefas personalizadas da Vertex AI

Exija chaves de encriptação geridas pelo cliente (CMEK) em tarefas de preparação personalizadas do Vertex AI para ter mais controlo sobre a encriptação das entradas e saídas das tarefas.

Ative as CMEK para conjuntos de dados da Vertex AI

Exija chaves de encriptação geridas pelo cliente (CMEK) para conjuntos de dados do Vertex AI para ter mais controlo sobre a encriptação de dados e a gestão de chaves.

Ative as CMEK para pontos finais do Vertex AI

Exija chaves de encriptação geridas pelo cliente (CMEK) para os pontos finais da Vertex AI para ter mais controlo sobre a encriptação dos modelos implementados e controlar o acesso aos dados.

Ative as CMEK para o Vertex AI Feature Store

Exija chaves de encriptação geridas pelo cliente (CMEK) para o Vertex AI Feature Store para ter mais controlo sobre a encriptação e o acesso aos dados.

Ative as CMEK para tarefas de hiperaperfeiçoamento dos parâmetros do Vertex AI

Exija chaves de encriptação geridas pelo cliente (CMEK) em tarefas de otimização de hiperparâmetros para ter mais controlo sobre a encriptação dos dados de preparação do modelo e da configuração da tarefa.

Ative as CMEK para as lojas de metadados do Vertex AI

Exija chaves de encriptação geridas pelo cliente (CMEK) para as lojas de metadados da Vertex AI para ter mais controlo sobre a encriptação de metadados e o controlo de acesso.

Ative as CMEK para modelos do Vertex AI

Exija chaves de encriptação geridas pelo cliente (CMEK) para que os modelos do Vertex AI tenham mais controlo sobre a encriptação de dados e a gestão de chaves.

Ative as CMEK para modelos dos ambientes de execução do Vertex AI Notebook

Exigir chaves de encriptação geridas pelo cliente (CMEK) para modelos de tempo de execução do Colab Enterprise para ajudar a proteger os ambientes de tempo de execução e os dados associados.

Ative as CMEK para o Vertex AI TensorBoard

Exija chaves de encriptação geridas pelo cliente (CMEK) para o Vertex AI TensorBoard para ter mais controlo sobre a encriptação dos dados de experiências e das visualizações de modelos.

Ative as CMEK para pipelines do Vertex AI Training

Exija chaves de encriptação geridas pelo cliente (CMEK) em pipelines de preparação do Vertex AI para ter mais controlo sobre a encriptação dos dados de preparação e artefactos resultantes.

Ative as CMEK para instâncias do Vertex AI Workbench

Exija chaves de encriptação geridas pelo cliente (CMEK) para que as instâncias do Vertex AI Workbench tenham mais controlo sobre a encriptação de dados.

Ative a funcionalidade Eliminar para o lixo para instâncias do Vertex AI Workbench

Ative a funcionalidade de metadados Eliminar para o lixo para instâncias do Workbench de modo a fornecer uma rede de segurança de recuperação crucial e ajudar a evitar a perda acidental de dados.

Ative o encerramento por inatividade para modelos dos ambientes de execução do Vertex AI

Ative o encerramento automático em inatividade nos modelos de tempo de execução do Colab Enterprise para otimizar os custos da nuvem, melhorar a gestão de recursos e aumentar a segurança.

Ative a monitorização da integridade para instâncias do Vertex AI Workbench

Ative a monitorização da integridade nas instâncias do Workbench para atestar continuamente a integridade de arranque das suas VMs em relação a um valor de referência fidedigno.

Ative o arranque seguro para modelos dos ambientes de execução da Vertex AI

Ative o arranque seguro nos modelos de tempo de execução do Colab Enterprise para ajudar a impedir a execução de código não autorizado e ajudar a proteger a integridade do sistema operativo.

Ative o arranque seguro para instâncias do Vertex AI Workbench

Ative o arranque seguro para instâncias do Workbench para ajudar a impedir a execução de software não autorizado ou malicioso durante o processo de arranque.

Ative o vTPM em instâncias do Vertex AI Workbench

Ative o Trusted Platform Module (TPM) virtual em instâncias do Workbench para proteger o processo de arranque e ter mais controlo sobre a encriptação.

Restrinja a utilização da conta de serviço predefinida para instâncias do Vertex AI Workbench

Restrinja a utilização da conta de serviço predefinida altamente permissiva para instâncias do Workbench de modo a reduzir o risco de acesso não autorizado aos serviços Google Cloud.

Áreas funcionais suportadas

Esta secção define as áreas funcionais que a proteção de IA pode ajudar a proteger.

  • Cargas de trabalho de IA: as cargas de trabalho de aplicações de IA variam entre ferramentas internas destinadas a melhorar a produtividade dos funcionários e soluções viradas para o consumidor concebidas para melhorar a experiência do utilizador e impulsionar os negócios. Os exemplos incluem agentes de IA, assistentes virtuais, bots de chat de IA de conversação e recomendações personalizadas.
  • Modelos de IA: os modelos de IA são classificados em modelos de IA de base, modelos de IA otimizados, modelos de IA originais padrão e modelos de IA personalizados. Os exemplos incluem o Gemini, o Llama, modelos de tradução e modelos personalizados para tarefas específicas.
  • Recursos de IA: os recursos de IA contribuem para os pipelines de operações de aprendizagem automática e são usados por cargas de trabalho de IA. Os tipos de recursos de IA incluem o seguinte:
    • Recursos de IA declarativos: as ferramentas de gestão do ciclo de vida da IA, como a Vertex AI, monitorizam estes recursos.
    • Recursos de IA inferidos: recursos de uso geral, como recursos de computação e de armazenamento, usados para processar dados ou cargas de trabalho de IA.
    • Modelo como serviço (apenas API): recursos que têm chamadas programáticas para modelos de IA de origem ou de terceiros.

Use o painel de controlo de segurança de IA

O painel de controlo do IA Security oferece uma vista abrangente do inventário de recursos de IA da sua organização e propõe potenciais mitigações para uma gestão de riscos e ameaças melhorada.

Aceda ao painel de controlo

Para aceder ao painel de controlo de segurança de IA, na Google Cloud consola, aceda a Vista geral de riscos > Segurança de IA.

Para mais informações, consulte o painel de controlo de segurança da IA.

Compreenda as informações de risco

Esta secção fornece informações sobre potenciais riscos associados aos sistemas de IA. Pode ver os principais riscos no seu inventário de IA.

Pode clicar em qualquer problema para abrir um painel de detalhes que apresenta uma visualização do problema.

Veja ameaças de IA

Esta secção oferece informações sobre as ameaças associadas aos sistemas de IA. Pode ver as 5 principais ameaças recentes associadas aos seus recursos de IA.

Nesta página, pode fazer o seguinte:

  • Clique em Ver tudo para ver as ameaças associadas aos seus recursos de IA.
  • Clique em qualquer ameaça para ver mais detalhes sobre a mesma.

Visualize o inventário

Pode ver uma visualização do seu inventário de IA no painel de controlo que fornece um resumo dos projetos que envolvem IA generativa, os modelos originais e de terceiros em utilização ativa, e os conjuntos de dados que são usados na preparação dos modelos de terceiros.

Nesta página, pode fazer o seguinte:

  • Para ver a página de detalhes do inventário, clique em qualquer um dos nós na visualização.
  • Para ver uma lista detalhada de recursos individuais (como modelos fundamentais e modelos personalizados), clique na sugestão.
  • Para abrir uma vista detalhada do modelo, clique no modelo. Esta vista apresenta detalhes como os pontos finais onde o modelo está alojado e o conjunto de dados usado para formar o modelo. Se a proteção de dados confidenciais estiver ativada, a vista de conjuntos de dados também é apresentada se o conjunto de dados contiver dados confidenciais.

Resumo das conclusões da revisão

Esta secção ajuda a avaliar e gerir as conclusões geradas pela framework de IA e pelas políticas de segurança de dados. Esta secção inclui o seguinte:

  • Resultados: esta secção apresenta um resumo dos resultados gerados pelas políticas de segurança de IA e pelas políticas de segurança dos dados. Clique em Ver todas as conclusões ou clique na contagem junto a cada categoria de conclusões para ver a página de detalhes das conclusões. Clique numa descoberta para apresentar informações adicionais sobre essa descoberta.
  • Dados confidenciais em conjuntos de dados da Vertex AI: esta secção apresenta um resumo das conclusões baseadas em dados confidenciais em conjuntos de dados, conforme comunicado pela Proteção de dados confidenciais.

Examine as conclusões do Model Armor

Um gráfico mostra o número total de comandos ou respostas analisados pelo Model Armor e o número de problemas que o Model Armor detetou. Além disso, apresenta estatísticas de resumo para vários tipos de problemas detetados, como injeção de comandos, deteção de jailbreak e deteção de dados confidenciais.

Estas informações são preenchidas com base nas métricas que o Model Armor publica no Cloud Monitoring.

O que se segue?