O National Institute of Standards and Technology (NIST) deu um passo significativo no sentido de fortalecer a segurança dos sistemas de inteligência artificial (IA).

No dia 14 de agosto de 2025, a agência norte-americana publicou um documento de conceito que detalha um plano de ação para desenvolver um conjunto de Control Overlays for Securing AI Systems (COSAiS), baseando-se no conhecido quadro de controlo de segurança NIST Special Publication (SP) 800-53.
Esta iniciativa representa um esforço contínuo do NIST para fornecer orientações práticas e especializadas que permitam às organizações gerir os ciberriscos específicos associados ao desenvolvimento, implementação e utilização de tecnologias de IA, desde modelos generativos a sistemas preditivos e multi-agente.
Porque é que isto é Necessário? O Desafio da Cibersegurança em IA
Os sistemas de IA introduzem vetores de risco únicos e amplificam ameaças tradicionais de cibersegurança. Vulnerabilidades como envenenamento de dados (data poisoning), evasão de modelos (model evasion), injecção de prompts, ou a exfiltração de dados de treino confidenciais são ameaças específicas que os quadros de segurança tradicionais não foram concebidos para abordar de forma completa.
- Ataques Adversariais: O relatório do NIST AI 100-2e2025, Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations fornece uma taxonomia detalhada para estes tipos de ataques, categorizando-os pelos seus objetivos, capacidades e fase do ciclo de vida do machine learning em que ocorrem.
- Novas Superfícies de Ataque: Sistemas de IA, especialmente os baseados em agentes autónomos ou modelos de linguagem grande (LLMs), operam de formas dinâmicas e imprevisíveis, criando novas superfícies de ataque que carecem de controlos de segurança robustos.
O Que são os Control Overlays para IA (COSAiS)?
Em termos simples, um overlay é um conjunto de controlos selecionados e adaptados do catálogo base do NIST SP 800-53, concebido para abordar requisitos especializados, tecnologias ou ambientes operacionais específicos.
O projeto COSAiS não pretende reinventar a roda. Em vez disso, aproveita o quadro já estabelecido e amplamente adotado do SP 800-53 e adapta-o para enfrentar os riscos específicos da IA. A abordagem do NIST é:
- Focada na Implementação: Mais do que princípios de alto nível, os overlays fornecem orientações técnicas acionáveis.
- Centrada em Casos de Uso (Use Cases): Reconhece que diferentes tipos de sistemas de IA enfrentam riscos diferentes. Por isso, está a desenvolver overlays separados para:
- Adaptação e Utilização de IA Generativa (ex: Assistantes/LLMs like ChatGPT)
- Utilização e Ajuste Fino (Fine-Tuning) de IA Preditiva
- Utilização de Sistemas de Agentes de IA (Single Agent)
- Utilização de Sistemas de Agentes de IA (Multi-Agent)
- Controlos de Segurança para Programadores de IA
- Modular e Combinável: As organizações podem selecionar e combinar estas camadas de controlo conforme os seus casos de uso específicos e perfis de risco, integrando-as perfeitamente nos seus programas de gestão de risco de cibersegurança existentes.
Fundações e Integração com o Ecossistema NIST
O COSAiS não surge isoladamente. Integra-se e constrói sobre o portfólio existente de diretrizes do NIST para IA segura:
- NIST AI Risk Management Framework (AI RMF): Enquanto o AI RMF fornece uma estrutura voluntária de alto nível para gerir riscos de IA de forma mais ampla (incluindo equidade e responsabilidade), os overlays COSAiS oferecem controlos técnicos específicos que operacionalizam os princípios do RMF.
- NIST SP 800-218A (SSDF para IA Generativa): Serve como um ponto de partia para identificar práticas de segurança para programadores de IA, que são depois traduzidas em controlos específicos.
- NIST AI 100-2e2025 (Taxonomia de AML): Fornece a linguagem comum e o entendimento sobre as táticas de ataque que estes overlays visam mitigar.
A seguinte tabela ilustra como o COSAiS se enquadra no ecossistema de diretrizes do NIST
| Documento/Diretriz | Foco Principal | Relação com o COSAiS |
|---|---|---|
| NIST SP 800-53 | Catálogo base de controlos de segurança e privacidade | Fundação. Fornece o catálogo de controlos que os overlays adaptam. |
| NIST AI RMF 1.0 | Framework de gestão de risco para IA (alto nível) | Complemento. O COSAiS implementa technicalmente o AI RMF. |
| NIST SP 800-218A | Práticas de desenvolvimento seguro para IA Generativa | Contributo. Informa os controlos para programadores de IA. |
| NIST AI 100-2e2025 | Taxonomia de Ataques de Machine Learning Adversarial | Contributo. Define as ameaças que os controlos visam mitigar. |
| COSAiS (SP 800-53 Overlays) | Controlos técnicos para casos de uso específicos de IA | Resultado. Sintetiza todas as diretrizes acima em controlos acionáveis. |
Implicações e Próximos Passos para as Organizações
A adoção destas sobreposições exigirá que as organizações:
- Realizem Avaliações de Risco Específicas para IA: Identificando quais os casos de uso relevantes e, consequentemente, quais os overlays a implementar.
- Adaptem os seus Controlos Existentes: Integrando os requisitos específicos para IA nos seus sistemas de gestão de segurança da informação existentes.
- Implementem Mecanismos de Monitorização Contínua: Especialmente para detetar desvios no comportamento dos modelos de IA, adversarial attacks ou acesso não autorizado a componentes críticos como dados de treino e pesos do modelo.
- Reforcem os Controlos de Acesso e Segurança dos Ambientes de Desenvolvimento: Garantindo a segurança da cadeia de suprimentos de software e o acesso a componentes sensíveis dos sistemas de IA.
O NIST está profundamente empenhado num processo colaborativo. Foi lançado um canal dedicado no Slack (#NIST-Overlays-Securing-AI) para formar uma Comunidade de Interesse (COI) onde cybersecurity experts, programadores de IA, gestores de risco e académicos podem colaborar, partilhar ideias e fornecer feedback em tempo real aos investigadores do NIST.
Um rascunho público da primeira overlay está previsto para o ano fiscal de 2026 (que termina em Setembro de 2026), acompanhado por uma workshop para stakeholders. Até lá, o NIST continua a recolher comentários sobre o documento de conceito agora publicado.
Um Marco para a Segurança da IA
O anúncio do NIST marca um marco crítico na maturação do campo da cibersegurança para a IA. Ao fornecer uma ponte tão necessária entre os princípios de gestão de risco e a implementação técnica de controlos, o projeto COSAiS tem o potencial de:
- Elevar a segurança de sistemas de IA em todos os sectores.
- Criar uma linguagem comum entre profissionais de cibersegurança e equipas de IA/ML.
- Influenciar padrões e regulamentos globais, à semelhança do que aconteceu com o NIST CSF e o SP 800-53 noutros domínios.
Para as organizações que desenvolvem ou implementam IA, acompanhar e, eventualmente, adotar estas diretrizes não será apenas uma questão de conformidade, mas um componente fundamental para construir e manter a confiança nas suas aplicações de IA.
Para mais informações, pode consultar o documento de conceito oficial e juntar-se à discussão no Slack da comunidade.
Sobreposições do NIST protegem sistemas de IA e colaboração no Slack
O COSAiS utiliza o recém-lançado Canal do Slack “Sobreposições do NIST para Segurança de Sistemas de IA” , um hub para as comunidades de segurança cibernética e IA discutirem o desenvolvimento dessas sobreposições. Os membros do canal do Slack recebem atualizações, participam de discussões facilitadas com os pesquisadores principais do NIST e outros membros do subgrupo, compartilham ideias, fornecem feedback em tempo real e contribuem para o desenvolvimento das sobreposições! Todos os interessados são bem-vindos.
Criptografia Forte é o Padrão que Mantém Bilhões de Pessoas Seguras Todos os Dias

O Crypto ID defende a criptografia forte como padrão para proteger a segurança de pessoas, empresas e nações. Leia mais sobre Criptografia e mantenha-se atualizado.
Acesse e Compartilhe o Ebook AES, O Guardião dos Segredos Digitais
Inteligência Editorial que Orienta Cenários

Desde 2014, o Crypto ID oferece conteúdo editorial sobre tecnologia, segurança e regulação. Há 11 anos provocamos reflexão que sustentam decisões estratégicas para transformação digital e cibersegurança.





























