Especialista da Blaze Information Security explica como tornar essas ferramentas seguras e cada vez mais livres de ataques hackers
A Inteligência Artificial (IA) não é apenas um assunto em alta, mas sim uma realidade. De acordo com uma pesquisa da Accenture, 73% das empresas em todo o mundo passaram a ver o tema como uma prioridade nos investimentos.
Nesse cenário, diversas organizações estão, inclusive, criando suas próprias IAs, como a AI Google e o próprio ChatGPT, da OpenAI.
Apesar de ser o foco de diversas companhias, de acordo com Julio Cesar Fort, Sócio e Diretor de Serviços Profissionais da Blaze Information Security, uma das principais empresas globais especializadas em segurança ofensiva com foco em pentest e desenvolvimento seguro contra ataques cibernéticos, são necessárias algumas medidas de segurança para que a tecnologia atue como aliada da empresa.
Nesse sentido, o especialista explica quais são os caminhos que devem ser seguidos para tornar essas ferramentas seguras e cada vez mais livres de ataques hackers.
“Desenvolver e usar IA traz desafios de privacidade, já que muitas vezes requer vastas quantidades de dados, podendo haver riscos de coleta excessiva, perpetuação de vieses ou até reidentificação de pessoas a partir de dados anônimos. Além disso, com a IA agindo como uma caixa-preta, fica complicado para as pessoas entenderem como seus dados são usados”, explica Fort.
Para lidar com isso, de acordo com o especialista, as empresas podem adotar o princípio de coletar apenas dados essenciais, usar técnicas que garantam privacidade durante o treinamento da IA, como a aprendizagem diferencial, e tornar os processos mais transparentes.
“Auditorias regulares e capacitação da equipe são cruciais, nesse cenário, para garantir que a privacidade e a proteção de dados sejam respeitadas”, completa.
O uso de uma defesa em camadas, que considera proteção, tanto no nível da infraestrutura quanto da aplicação, garantir a segurança dos dados usados no treinamento dos modelos, além de testar os modelos em diversos cenários para assegurar que eles se comportem como esperado, também devem fazer parte das medidas de segurança.
“Técnicas de defesa contra ataques adversários, como o re-treinamento adversarial, podem ser úteis, assim como o monitoramento em tempo real dos sistemas para detectar comportamentos anômalos. Manter os sistemas atualizados com os patches de segurança mais recentes e garantir controles de acesso rigorosos são outras medidas-chave. Além disso, a resposta a incidentes representa um dos pilares da segurança e demanda sistemas robustos”, completa.
Por fim, a transparência também ajuda na otimização técnica e na construção da confiança do público. “Quando as decisões de um sistema são transparentes, é mais fácil identificar e corrigir erros, falhas ou vieses. Além disso, quando as pessoas entendem como uma IA chega a uma conclusão, elas tendem a confiar mais na tecnologia, o que a torna mais aceitável e facilita a identificação de potenciais ameaças ou abusos”, explica.
Investimentos em IA e em cibersegurança caminham juntos
Se a Inteligência Artificial tem sido foco dos investimentos dentro das empresas, outra preocupação que não fica muito atrás certamente é a cibersegurança.
De acordo com o “Worldwide Security Spending Guide” da IDC, é esperado que o investimento em hardware, software e serviços relacionados ao setor de segurança cibernética atinja quase 300 mil milhões de dólares até 2026.
Para Fort, esses são investimentos complementares, pois é fundamental investir em cibersegurança caso a empresa esteja direcionando gastos à criação e uso de uma IA.
“Ataques adversariais, em que pequenas alterações nos dados de entrada podem enganar e fazer com que o sistema tome decisões errôneas e o prompt injection, uma técnica de ataque na qual um invasor insere ou “injeta” entrada maliciosa em um prompt, com a intenção de enganar ou manipular um sistema para obter um resultado desejado, muito comum no início do Chat GPT, são apenas algumas vulnerabilidades e riscos de segurança associados ao uso de IA”, alerta o especialista da Blaze Information Security.
Para além desses riscos, de acordo com o especialista, quando um modelo de IA é excessivamente treinado em um conjunto específico de dados, ele pode não se comportar bem quando exposto a situações diferentes, um fenômeno conhecido como sobreajuste.
“Preocupações com viés e discriminação e riscos à privacidade da companhia também merecem atenção. As ameaças cibernéticas estão em constante evolução e representam riscos significativos, de diferentes formas”, ressalta Fort.
“Hoje em dia, com tudo conectado e dependendo do uso de tecnologias e internet, investir em cibersegurança é imprescindível, não se trata de apenas uma medida de precaução, mas uma necessidade crítica para enfrentar os desafios da era digital”, finaliza.
Sobre a Blaze
A Blaze Information Security é uma das principais empresas globais especializadas em segurança ofensiva com foco em pentest (teste de intrusão) e desenvolvimento seguro contra ataques cibernéticos. por contar com hackers profissionais experientes em sua equipe, a companhia se destaca por conseguir antecipar a criatividade das estratégias dos cibercriminosos, entregando para seus clientes um planejamento sob medida, completo e seguro.
A inteligência artificial potencializa as tomadas de decisão no varejo
Segurança tecnológica: os tipos de ciberataques e como evitá-los nas empresas
Estudo aponta que até 2025 as perdas mundiais com ciberataques serão de US$ 10,5 trilhões por ano
O Crypto ID trilhou um caminho incrível!
Ao longo de uma década, fomos além das inovações e tendências, tornando-nos referência em segurança digital, identificação e privacidade.
Neste marco tão especial, renovamos nosso compromisso com um mundo digital mais seguro e confiável.
Agradecemos a todos que fizeram e fazem parte dessa trajetória – parceiros, colunistas, colaboradores, assessorias de imprensa e a nossa comunidade! Juntos, estamos construindo um futuro em que empresas, máquinas e pessoas possam confiar muito mais umas nas outra.