Facebook Google Plus Twitter LinkedIn YouTube RSS Menu Search Resource - BlogResource - WebinarResource - ReportResource - Eventicons_066 icons_067icons_068icons_069icons_070
8-minute read May 4 2026

Segurança para IA: uma estrutura estratégica para fechar a lacuna de exposição da IA

Security for AI a 5-step strategic framework for securing AI cybersecurity

À medida que a adoção da IA acelera, os CISOs enfrentam um duplo desafio: alimentar a inovação e, ao mesmo tempo, mitigar os riscos de uma superfície de ataque em rápida expansão. A estrutura de cinco etapas para proteger a IA da Tenable oferece uma abordagem sistemática para reduzir os riscos de segurança da IA à medida que sua organização corre para alcançar os benefícios de produtividade da IA. 

Principais conclusões

  1. Obtenha uma estrutura de cinco etapas para ajudar a proteger o uso da IA na sua organização e mitigar os riscos de segurança que as ferramentas de IA criam.
     
  2. A segurança do uso corporativo da IA exige uma combinação de recursos robustos de descoberta de IA, mecanismos para proteger workloads de IA e a infraestrutura que executa a IA, visibilidade em nível de prompt, capacidade de analisar os riscos de segurança da IA juntamente com outras exposições e controles técnicos para garantir a conformidade com a política de uso aceitável de IA da sua organização. 
     
  3. Saiba por que seus controles de segurança existentes podem ser inadequados para proteger a IA.

 

Enquanto a IA transforma as empresas, os líderes de segurança, como eu, estão tentando descobrir como gerenciar os riscos de segurança que ela cria de forma mais eficaz.

O desafio é que a IA agora está incorporada em praticamente todos os lugares das organizações: em ferramentas de produtividade dos funcionários, plataformas de SaaS, bibliotecas de desenvolvedores, serviços em nuvem, APIs e aplicações Web. O resultado? As equipes se deparam com uma crescente lacuna de exposição da IA: uma superfície de ataque vasta e em grande parte invisível que nossas ferramentas de segurança tradicionais não foram projetadas para monitorar

Para complicar a situação, muitas vezes não é possível isolar o risco da IA em um único ativo. Em vez disso, ela surge de uma série de elementos interconectados (como aplicações, infraestrutura, identidades e dados) que, em conjunto, geram exposição. Aqui está um exemplo do que quero dizer.

Digamos que um funcionário use um chatbot de IA aprovado para resolução de suporte técnico que depende de agentes do Amazon Bedrock, e esses agentes têm privilégios elevados para acessar sistemas internos confidenciais, como planejamento de recursos empresariais e ferramentas de gerenciamento de recursos do cliente. Se um agente de ameaças obtiver acesso ao agente por meio de uma vulnerabilidade não corrigida no laptop do funcionário, ele poderá usar o agente para violar dados confidenciais, e um uso aparentemente seguro de uma ferramenta de IA aprovada acabará se tornando uma exposição de alto impacto.

A proteção de dados nos atuais ambientes de trabalho assistidos por IA torna-se exponencialmente mais difícil porque cada uma das várias interações com ativos de IA (ex.: cada solicitação, upload de arquivo, resposta gerada, integração e configuração) pode colocar em risco a propriedade intelectual, as informações do cliente e os planos confidenciais.

Então, como podemos domar essa nova e desafiadora superfície de ataque que cresce sem controle à medida que nossas organizações ampliam o uso da IA? Aqui está uma estrutura estratégica que eu implementei para governar, descobrir e proteger a IA onde quer que ela esteja e crie riscos para sua organização. 

Estrutura estratégica: cinco etapas para proteger a IA empresarial

1. Estabelecer um comitê de governança de IA, uma estrutura e uma política de uso aceitável

Proteger a IA começa com a definição de expectativas claras sobre o uso aceitável com os funcionários. Estabeleça uma política de uso aceitável de IA que:

  • forneça uma lista de ferramentas de IA aprovadas e não aprovadas;
  • defina casos de uso de negócio apropriados e inadequados;
  • explique os tipos de dados que podem e não podem ser compartilhados com os LLMs;
  • prescreva regras para o tratamento de dados;
  • aborde as leis de direitos autorais; e
  • declare as consequências das violações de políticas.

Com base na política de uso aceitável de IA da sua organização, é possível implementar controles para aplicar e monitorar a conformidade com ela.

2. Descobrir a IA em toda a sua superfície de ataque

Quando converso com outros CISOs sobre segurança para IA, eles dizem que descobrir e detectar a IA é um dos seus maiores desafios. E eu entendo: ela está em todos os lugares e é muito difícil encontrá-la, em parte porque a presença da IA vai muito além dos sistemas gerenciados centralmente que podem ser vistos claramente. 

Como líderes de segurança, precisamos considerar:

  • Ativos, agentes, plug-ins, extensões de navegador e workloads de IA, independentemente de:
    • serem executados na nuvem ou no local;
    • serem acessíveis interna ou externamente;
    • serem aprovados ou não aprovados.
  • Implementações de teste de IA esquecidas;
  • Ferramentas de IA incorporadas em endpoints e aplicações;
  • Todos os softwares, bibliotecas, modelos e serviços de IA;
  • Serviços de IA expostos publicamente, APIs de large language model (LLM) e chatbots de IA em endpoints e em aplicações em nuvem.

Suas soluções existentes de prevenção de perda de dados (DLP), agentes de segurança de acesso à nuvem (CASB) e gerenciamento da postura de segurança na nuvem (CSPM) podem oferecer um bom ponto de partida inicial para descobrir ativos de IA. Mas a descoberta holística requer ferramentas de descoberta especializadas porque a natureza não determinística da IA desafia as proteções de segurança tradicionais baseadas em regras. Também requer recursos de detecção exclusivos para identificar ferramentas e bibliotecas de IA incorporadas e entender como os sistemas de IA trabalham juntos para gerar a exposição.

Com uma visão contínua e completa do uso de IA da sua empresa, você saberá exatamente quais workloads e infraestruturas precisam ser protegidas e poderá começar a avaliar a exposição geral da IA na sua organização e priorizar ações de correção específicas.

3. Proteger workloads e agentes de IA

Como as workloads de IA estão profundamente interconectadas e, muitas vezes, com configurações incorretas ou excesso de permissões, essa etapa envolve a segurança proativa da infraestrutura onde a IA é executada e o fortalecimento das workloads de IA antes que os invasores possam explorá-las. Por exemplo, se os desenvolvedores da sua organização estiverem criando aplicações habilitadas para IA na nuvem, você precisará ter certeza de que a infraestrutura da nuvem é segura. 

Proteções eficazes requerem recursos para:

  • Identificar configurações incorretas e configurações perigosas em workloads de IA baseadas na nuvem;
  • Detectar vulnerabilidades que possam expor modelos, agentes, dados ou APIs a acesso não autorizado;
  • Implementar a redução de exposição orientada por identidade, pois a IA depende muito de identidades não humanas;
  • Detectar as contas de serviço, funções e identidades de máquina com excesso de privilégios utilizadas pelos workflows de IA e aplicar rigorosamente o acesso com privilégios mínimos;
  • Entender as possíveis vias de ataque dos ativos e das workloads de IA que poderiam afetar os sistemas críticos para o negócio ou levar a dados confidenciais;
  • Isolar rapidamente agentes de IA erráticos ou comprometidos em ambientes controlados para minimizar o possível impacto da violação.

Vou me aprofundar nesse tópico específico de segurança de workloads e agentes de IA em um blog de acompanhamento que estou planejando. Enquanto isso, ao conduzir uma análise de risco profunda da sua pilha de IA, você pode entender como os pontos fracos de identidade e as falhas de infraestrutura se combinam para criar uma exposição crítica. Com base nesses insights, você pode fornecer manuais práticos às suas equipes de segurança para fortalecer os ambientes e garantir que os serviços sejam executados em arquiteturas seguras, resilientes e validadas.

4. Avaliar o uso e as interações da IA

Essa etapa envolve a compreensão de como seus funcionários interagem com ferramentas de IA generativa e agentes autônomos para garantir que eles não estejam violando a política de uso aceitável de IA da organização. É fundamental entender como os dados fluem por todas as aplicações de IA e determinar onde a exposição está sendo gerada. 

Isso requer visibilidade granular de:

  • Quem está usando a IA;
  • Para que finalidade;
  • Onde se originam o comportamento de risco e o uso indevido;
  • Quais dados os funcionários estão compartilhando por meio de prompts, uploads ou ações automatizadas;
  • Tentativas de fazer o jailbreak de ferramentas de IA aprovadas e fornecer prompts mal-intencionados.

A visibilidade em nível de prompt do uso de IA dos funcionários permite que sua equipe de segurança detecte violações de políticas e reforce o comportamento seguro da IA. Isso também permite que sua equipe de segurança identifique dados confidenciais, incluindo propriedade intelectual e PII, que os funcionários ou agentes compartilham com ferramentas de IA por meio de prompts, uploads e interações automatizadas e que poderiam gerar exposição por meio de um vazamento acidental. Além disso, permite que sua equipe de segurança detecte e responda a novas ameaças e usos indevidos específicos de IA, como tentativas de injeção imediata e outras instruções mal-intencionadas criadas para manipular os sistemas de IA. 

Seja descobrindo uma ferramenta mal-intencionada conectada a um agente do Microsoft Copilot ou um funcionário usando indevidamente a IA em situações inadequadas para as quais a ferramenta não foi projetada (ex.: decisões internas de contratação), você precisa responder rapidamente para abordar a exposição e reforçar o uso seguro.

5. Analisar os riscos de segurança da IA no contexto de outras exposições

Para mitigar os riscos de segurança da IA, não basta detectar isoladamente vulnerabilidades sem patches no software de IA, configurações fracas de sistemas de IA e agentes com excesso de privilégios. Afinal, a IA está se integrando totalmente a todas as nossas aplicações, dados e processos do negócio.

A mitigação de riscos de segurança de IA requer uma abordagem unificada e automatizada para coletar dados de segurança de IA ricos em contexto e correlacioná-los e analisá-los junto com outros dados de exposição, como um bucket S3 exposto publicamente, um laptop vulnerável ou uma conta órfã com privilégios de administrador. Na Tenable, chamamos essa abordagem de gerenciamento de exposição, e vemos que o setor está se adaptando rapidamente a ela. O gerenciamento de exposição permite que você veja proativamente como os pontos fracos de segurança do seu ambiente se combinam para gerar a exposição: vias de ataque de alto risco que levam aos sistemas e aos dados mais sensíveis da sua organização. 

O gerenciamento de exposição também revela riscos com contexto preciso, incluindo o mecanismo de IA, o usuário e a sessão específica, a fim de permitir o gerenciamento de problemas de alta fidelidade e rápida resposta. Trata-se de entender como as combinações tóxicas de risco se unem para gerar exposição do negócio. Uma configuração incorreta de criticidade média no Amazon Bedrock pode estar conectada a um LLM desprotegido que fornece acesso a direitos excessivamente provisionados para agentes. O gerenciamento de exposição requer essa compreensão completa de todo o ambiente e da superfície de ataque.

Proteger o futuro da inovação em IA

A rápida integração da IA na empresa criou uma superfície de ataque complexa e interconectada, com a qual os controles de segurança tradicionais simplesmente não estão preparados para lidar. Para fechar a lacuna de exposição da IA, os líderes de segurança precisam passar de uma abordagem reativa e centrada em ferramentas para uma estratégia proativa e unificada.

Ao implementar essa estrutura de cinco etapas, você pode criar uma postura de segurança resiliente que evolui junto com a tecnologia de IA. Em última análise, o gerenciamento eficaz de exposição não significa desacelerar a inovação, e sim fornecer as proteções necessárias para garantir que a organização possa adotar o poder da IA com segurança e confiança.

Author

Learn more