Especialistas da Check Point Software examinam o papel da IA na otimização do desempenho e da segurança das redes 5G
As redes de comunicação modernas dependem cada vez mais do uso de modelos de IA para aprimorar o desempenho, a confiabilidade e a segurança de seus serviços.
Redes 5G, em especial, com uma arquitetura baseada em serviços, utilizam modelos de IA para processamento de dados em tempo real, manutenção preditiva e otimização de tráfego.
Grandes volumes de dados de rede, dados de comportamento do usuário e interações de dispositivos são analisados com mais profundidade e rapidez do que seria possível sem a IA. A seguir, os especialistas da Check Point Software analisam os modelos de IA em redes 5G.
Modelos de gestão de tráfego orientados por IA alocam recursos dinamicamente com base na demanda, reduzindo a latência e melhorando a experiência do usuário.
A IA também pode ser usada para aprimorar a infraestrutura de comunicações de defesa, coordenando redes não terrestres com ativos aéreos/terrestres/marítimos para garantir o sucesso de missões.
Otimização do uso de energia, casos de uso de segmentação de redes autônomas/IoT e priorização dinâmica de serviços de emergência também se beneficiam da aplicação eficaz de modelos de IA.
“Assim, à medida que as redes 5G continuam a se expandir, análises e automação impulsionadas por IA serão essenciais para garantir eficiência operacional e segurança em ambientes cada vez mais complexos“, aponta Fernando de Falchi, gerente de Engenharia de Segurança da Check Point Software Brasil.
No entanto, Falchi explica o outro lado dos modelos de IA, os quais também podem ser interrompidos ou desativados, afetando gravemente os ambientes que dependem deles. Para interromper ou desativar um modelo de IA em ambientes de redes 5G, atacantes podem adotar várias táticas, explorando vulnerabilidades que existem ao longo do ciclo de vida do modelo – desde a ingestão de dados até a inferência e tomada de decisão.
Os especialistas da Check Point Software listaram as técnicas de ataque possíveis a oito modelos de IA e suas mitigações sugeridas:
1.Envenenamento de dados: Alteração dos dados de treinamento para degradar a precisão do modelo.
2. Evasão de modelo: Uso de entradas para manipulação de dados intencionalmente para enganar o modelo de IA e para contornar a detecção do modelo.
3. Inversão de modelo: Engenharia reversa de dados sensíveis ou lógica de decisão.
4. Envenenamento do modelo: Introdução de backdoors ocultos para acesso futuro.
5. Extração de modelo: Reconstrução de um modelo via consultas cuidadosamente elaboradas.
6. Negaçao de serviço na infraestrutura: Sobrecarga de recursos para interromper a operação do modelo.
7. Ataques Trojan: Inserção de código malicioso em modelos.
8. Ataques à Cadeia de Suprimentos: Comprometimento de componentes de terceiros usados pelos modelos.
Envenenamento de dados
Descrição:
Atacantes injetam dados maliciosos ou enganosos no conjunto de dados de treinamento do modelo de IA para corromper seu processo de aprendizagem, o que pode fazer com que o modelo faça previsões incorretas ou se comporte de maneira errática.
Como Funciona:
Manipulação de Dados de Treinamento – Adversários introduzem dados falsos ou rotulam incorretamente dados legítimos, influenciando as previsões do modelo de IA e diminuindo sua eficácia.
Exemplo:
Em uma rede 5G, dados de tráfego envenenados podem enganar os sistemas de IA responsáveis pela detecção de anomalias, fazendo com que deixem de identificar ameaças genuínas.
Impacto:
Degradação da precisão do modelo e previsões incorretas. Isso é particularmente prejudicial em sistemas que realizam processos de tomada de decisão em tempo real ou críticos.
Defesa:
• Implementar pipelines de dados seguros e processos rigorosos de validação de dados.
Evasão de Modelo
Descrição:
Atacantes criam entradas que enganam o modelo de IA sem serem detectados. Essas entradas (chamadas de Adversarial Examples em inglês) fazem com que o modelo faça previsões ou classificações errôneas.
Como Funciona:
Adversarial Examples – Fazendo mudanças sutis nos dados de entrada (ex.: padrões de tráfego de rede ou conteúdo de pacotes), os atacantes podem contornar medidas de segurança sem acionar mecanismos de detecção.
Exemplo:
Em um sistema de detecção de intrusões 5G, um adversário pode manipular padrões de tráfego para escapar da detecção e acessar ambientes restritos.
Impacto:
Permite que os atacantes contornem controles de segurança baseados em IA, levando a violações de segurança.
Defesa:
• Empregar técnica de adversarial training e arquiteturas de Machine Learning robustas.
• Proteger a infraestrutura de aprendizado contra acesso não autorizado ao modelo (Zero Trust, gestão de identidade, prevenção de escalonamento de privilégios, segurança de conteúdo, segurança de host e rede).
Inversão de Modelo
Descrição:
Atacantes podem realizar engenharia reversa de um modelo para obter insights sobre seus dados de treinamento ou parâmetros, o que pode levar a violações de privacidade ou exploração de vulnerabilidades.
Como Funciona:
Consulta de Modelo: Ao realizar consultas sistemáticas ao modelo e analisar as respostas, os atacantes inferem dados sensíveis ou informações proprietárias do modelo.
Exemplo:
Em uma aplicação de saúde baseada em 5G, os atacantes podem consultar um modelo de diagnóstico baseado em IA para reconstruir dados de saúde de pacientes.
Impacto:
Divulgação de informações sensíveis, levando a violações de privacidade e riscos de conformidade. Em ambientes de defesa, isso também pode levar à divulgação de dados de missão e ativos.
Defesa:
• Implementar Privacidade Diferencial para dados sensíveis.
• Proteger a infraestrutura de aprendizado contra acesso não autorizado ao modelo (Zero Trust, gestão de identidade, prevenção de escalonamento de privilégios, segurança de conteúdo, segurança de host e rede).
• Proteger a infraestrutura de produção para controlar o acesso e a exposição do modelo (Zero Trust, gestão de identidade, prevenção de escalonamento de privilégios, segurança de conteúdo, segurança de host e rede).
Envenenamento do Modelo (Ataques Backdoor)
Descrição:
Atacantes inserem um “backdoor” oculto no modelo de IA durante o treinamento, que pode ser acionado posteriormente para manipular o modelo.
Como Funciona:
Acionamento do Backdoor: Durante uma violação de backdoor, o modelo é treinado para responder de forma anormal aos gatilhos específicos definidos pelo atacante nos dados de entrada.
Exemplo:
Em um sistema de controle de tráfego para redes 5G, os atacantes podem adicionar um backdoor que impede a detecção de endereços IP específicos, facilitando o fluxo de tráfego não detectado.
Impacto:
Permite que os atacantes contornem a segurança do modelo e interrompam operações sob demanda.
Defesa:
• Auditar regularmente os pipelines de treinamento do modelo e realizar testes de detecção de backdoors.
• Proteger a infraestrutura de aprendizado contra acesso não autorizado ao modelo (Zero Trust, gestão de identidade, prevenção de escalonamento de privilégios, segurança de conteúdo, segurança de host e rede).
Extração de Modelo (Roubo)
Descrição:
Atacantes tentam “roubar” o modelo de IA consultando-o, reconstruindo seus parâmetros e fronteiras de decisão para análise. Isso pode ser usado para propagar ataques mais profundos ou facilitar o uso não autorizado do modelo.
Como Funciona:
Explotação de API: Um atacante consulta o modelo extensivamente, construindo uma versão local que replica o comportamento do modelo.
Exemplo:
Em APIs de serviços 5G, os atacantes podem consultar modelos de gestão de tráfego ou otimização baseados em IA para reconstruir sua lógica e potencialmente explorar o sistema.
Impacto:
Expõe modelos proprietários a uso indevido e facilita ataques direcionados futuros.
Defesa:
• Implementar limites de consultas
• Ofuscar respostas do modelo
• Usar mecanismos de preservação de privacidade, como privacidade diferencial.
• Proteger a infraestrutura de produção para controlar o acesso e a exposição do modelo (Zero Trust, gestão de identidade, prevenção de escalonamento de privilégios, segurança de conteúdo, segurança de host e rede).
Negação de Serviço na Infraestrutura
Descrição:
Atacantes interrompem a infraestrutura que suporta modelos de IA ao sobrecarregar os recursos computacionais ou de rede do sistema, tornando o modelo temporariamente indisponível.
Como Funciona:
Exaustão de Recursos: Enviando um número excessivo de solicitações, o atacante pode esgotar os recursos do sistema, resultando em lentidão ou paralisação.
Exemplo:
Em um serviço de otimização de tráfego baseado em IA 5G, um ataque DoS (Negação de Serviços) pode paralisar a infraestrutura, resultando em degradação no desempenho da rede.
Impacto:
Interrupções no serviço, falhas em previsões e operações atrasadas.
Defesa:
• Implementar limites de consultas
•Implementar balanceamento de carga, limitação de taxa e redundância de infraestrutura.
Ataques Trojan
Descrição:
Atacantes inserem código malicioso (um cavalo de Troia) no modelo de IA, que pode ser ativado posteriormente para alterar o comportamento do modelo.
Como Funciona:
Implantação de Trojan: O atacante insere código na arquitetura do modelo ou no ambiente de treinamento, para ativação posterior e interrupção do serviço, causando previsões incorretas ou facilitando a evasão do modelo.
Exemplo:
Em uma aplicação 5G, um Trojan no modelo poderia desativar a otimização de tráfego durante horários de pico, levando a congestionamento de serviço.
Impacto:
Permite que os atacantes desativem ou manipulem o modelo de IA conforme desejado.
Defesa:
• Proteger os ambientes de desenvolvimento e realizar auditorias regulares do código e do desempenho do modelo.
• Proteger a infraestrutura de aprendizado contra acesso não autorizado ao modelo (Zero Trust, gestão de identidade, prevenção de escalonamento de privilégios, segurança de conteúdo, segurança de host e de rede).
Ataques à Cadeia de Suprimentos
Descrição:
Atacantes comprometem componentes de terceiros (como bibliotecas, frameworks ou modelos pré-treinados) usados na construção ou implantação do modelo de IA.
Como Funciona:
Comprometimento de Componentes de Terceiros: Os atacantes introduzem vulnerabilidades em softwares ou modelos de terceiros, que são incorporados ao sistema alvo. A infraestrutura de CI/CD é um alvo lógico para esses ataques.
Exemplo:
Em um modelo de monitoramento de segurança 5G, atacantes podem adulterar bibliotecas de terceiros para enfraquecer as capacidades de detecção ou permitir tráfego malicioso.
Impacto:
Compromete a confiabilidade e a segurança do modelo de IA, muitas vezes sem detecção imediata.
Defesa:
• Auditar regularmente os componentes de terceiros.
• Restringir as fontes a fornecedores confiáveis.
• Proteger os ambientes de desenvolvimento e realizar auditorias regulares do código e do desempenho do modelo.
• Proteger a infraestrutura de aprendizado contra acesso não autorizado ao modelo (Zero Trust, gestão de identidade, prevenção de escalonamento de privilégios, segurança de conteúdo, segurança de host e de rede).
Check Point Software aprimora a detecção de phishing e malware
Acompanhe o melhor conteúdo sobre Inteligência Artificial publicado no Brasil.
O Crypto ID trilhou um caminho incrível!
Ao longo de uma década, fomos além das inovações e tendências, tornando-nos referência em segurança digital, identificação e privacidade.
Neste marco tão especial, renovamos nosso compromisso com um mundo digital mais seguro e confiável.
Agradecemos a todos que fizeram e fazem parte dessa trajetória – parceiros, colunistas, colaboradores, assessorias de imprensa e a nossa comunidade! Juntos, estamos construindo um futuro em que empresas, máquinas e pessoas possam confiar muito mais umas nas outra.
Cadastre-se para receber o IDNews e acompanhe o melhor conteúdo do Brasil sobre Identificação Digital! Aqui!