/
Resiliência cibernética

A inteligência artificial está avançando rapidamente na segurança cibernética federal. Estamos garantindo a segurança com rapidez suficiente?

Durante um webinar recente do FedInsider, compartilhei uma história que ouvi e que ainda me deixa perplexo.

Um CIO federal estava se preparando para implementar um sistema de IA que havia sido cuidadosamente planejado, revisado e aprovado.  

Em teoria, tudo parecia certo. Então eles começaram a testá-lo.

A IA começou a retornar respostas que não deveria saber, usando fontes de dados que nunca deveriam ter sido consideradas.

Nada de malicioso havia acontecido, mas o risco de segurança era real e imediato. Se esse sistema tivesse entrado em funcionamento, o resultado teria sido ruim.

Essa história retrata bem a situação atual de muitas agências federais em relação à IA. Eles estão se movendo rápido porque precisam. Mas a velocidade sem visibilidade e controle cria novos riscos tão rapidamente quanto cria novas capacidades.

A IA já está integrada em ambientes governamentais. A questão é se estamos a protegê-lo deliberadamente ou se estamos a descobrir o seu impacto na segurança posteriormente.

A IA em ambientes governamentais é uma vantagem estratégica para todos.

Acho importante deixar claro que a IA não é opcional.

Os adversários já estão usando IA para automatizar o reconhecimento, aprimorar campanhas de phishing, imitar vozes, gerar malware e ampliar ataques mais rapidamente do que qualquer equipe humana jamais conseguiria.  

Isso significa que os defensores não podem ficar de fora desta partida.

Ao mesmo tempo, as agências federais estão lidando com ambientes mais complexos do que nunca, incluindo arquiteturas híbridas e sistemas legados.

O volume de telemetria por si só é impressionante. Os seres humanos simplesmente não conseguem processar todas essas informações de forma significativa.

A IA ajuda porque consegue fazer algo que nós não conseguimos: analisar quantidades massivas de dados em tempo real e revelar o que realmente importa.

Mas o problema é que a mesma IA que ajuda os defensores a encontrar a agulha no palheiro também aumenta o próprio palheiro.  

Cada modelo de IA é uma nova aplicação. Cada pipeline de IA é um novo conjunto de conexões. Cada fonte de dados representa um caminho potencial para abusos.

Se você não controla esses caminhos, a IA não reduz o risco, mas o acelera.

Por que as salvaguardas de segurança tradicionais falham em um ambiente federal orientado por IA?

Uma das verdades mais difíceis para os líderes federais de cibersegurança aceitarem é que as suas atuais medidas de proteção não são suficientes.

Durante anos, o sucesso em cibersegurança foi medido pela prevenção. O objetivo era impedir a entrada de atacantes, reforçar o perímetro e impedir a invasão.  

Mas as intrusões ainda acontecem, desde empresas da lista Fortune 500 até agências federais. E elas acontecem apesar de todos os nossos esforços.

A IA não altera essa dinâmica, mas sim a reforça.

Os sistemas de IA funcionam em servidores e código, e dependem do acesso a dados. Isso as torna tão vulneráveis a movimentação lateral, configuração incorreta e acesso com privilégios excessivos quanto qualquer outro aplicativo.

Pior ainda, muitas organizações ainda operam com o que eu chamo de modelo "Tootsie Pop": duras por fora, moles por dentro. Uma vez que o invasor entra, ele pode se mover livremente.

Isso é desastroso para os sistemas de IA.

Se o seu mecanismo de IA tem acesso irrestrito a sistemas internos, dados sensíveis ou recursos externos, você está confiando nele muito mais do que deveria. A IA deve ser protegida contra ameaças externas, ameaças internas e, em muitos casos, contra si mesma.

A visibilidade é a base da segurança da IA em sistemas federais.

Antes de poder proteger a IA, você precisa ter uma visão clara do seu ambiente.

Parece óbvio, mas em muitos casos não é.

Passei anos como CIO analisando diagramas claros do Visio que mostravam como os sistemas deveriam se conectar. Mas a realidade nunca correspondeu ao diagrama.

Os ambientes federais modernos são dinâmicos e estão em constante mudança. A IA pode ajudar nesse sentido, mas somente se a visibilidade vier em primeiro lugar.

Observabilidade da IA

A IA proporciona às agências uma visão tridimensional do seu ambiente, também chamada de observabilidade. Pode revelar não apenas ativos e alertas, mas também as relações entre os sistemas, como eles se comunicam e o que realmente importa.

Quando a IA destaca tráfego direcionado a países onde não deveria estar, ou serviços que se comunicam com a internet sem um motivo válido, isso representa uma informação útil. E isso precisa acontecer agora, não semanas depois, durante uma análise pós-incidente.

A visibilidade em tempo real transforma a IA de uma novidade em uma capacidade defensiva.

A abordagem Zero Trust não é opcional para garantir a segurança da IA federal.

Na minha opinião, segurança de IA sem Zero Trust é mera ilusão.

O conceito de Zero Trust parte de uma premissa simples: violações de segurança irão ocorrer. O objetivo é minimizar o seu impacto.

Isso significa:

  • Permitir apenas conexões que sejam explicitamente necessárias.
  • Desativar tudo o resto por padrão
  • Definir limites de proteção claros em torno de sistemas críticos.
  • Implementar controles internamente, não apenas no perímetro.

Para sistemas de IA, isso é ainda mais importante.

Você precisa controlar o que pode se comunicar com seus modelos de IA e com o que seus modelos de IA podem se comunicar. Isso inclui comunicações de entrada e saída, dados de treinamento e inferência, sistemas internos e fontes externas.

Sem a segmentação como parte da sua estratégia de Confiança Zero, uma vulnerabilidade em IA se torna uma vulnerabilidade empresarial. Mas com a segmentação, chega-se a um consenso.

Com e sem segmentação

É assim que as agências federais passam da ansiedade em relação a violações de segurança para a resiliência a essas violações, à medida que desenvolvem modelos de IA.

A IA nunca deve ser algo do tipo "configure e esqueça".

Um dos maiores equívocos que vejo é a ideia de que a IA resolve problemas operacionais sozinha.

Não.

A IA requer governança, supervisão e validação constante. A baixa qualidade dos dados, o acesso excessivo e a falta de clareza na definição de propriedade comprometem os resultados da IA.

Se você já possui dívida técnica, a IA não a resolverá. Isso só vai expor a situação.

As agências federais precisam abordar a implementação de IA da mesma forma que abordariam qualquer sistema de missão crítica, com base em sua estratégia de Confiança Zero:

Essa disciplina é o que diferencia a IA útil da IA perigosa.

A IA pode fortalecer a segurança cibernética federal com as devidas salvaguardas.

Apesar dos riscos, continuo otimista em relação à IA.

A IA pode aprimorar drasticamente as equipes federais de segurança cibernética, reduzir a fadiga de alertas e revelar contextos relevantes mais rapidamente. Isso pode ajudar as agências a serem competitivas apesar dos desafios de pessoal e das limitações de recursos.

Utilizada corretamente, a IA torna-se uma extensão da força de trabalho. Ela aprimora o julgamento humano em vez de substituí-lo. Isso permite que profissionais qualificados se concentrem em decisões em vez de se perderem em meio a tantos dados.

Mas isso só funciona quando a IA é implementada intencionalmente, protegida adequadamente e alinhada aos princípios de Confiança Zero.

Este é o padrão que os líderes federais devem seguir agora, antes que a IA defina seu nível de segurança.

Experimente o Illumio Insights gratuitamente. Para obter a visibilidade e o contexto necessários para entender os riscos, conter as ameaças e proteger ambientes orientados por IA.

Artigos relacionados

Experimente o Illumio Insights hoje mesmo

Veja como a observabilidade com IA ajuda você a detectar, entender e conter ameaças mais rapidamente.