Com informações da SEK – Security Ecosystem Knowledge, provedora de soluções e serviços de cibersegurança voltados a apoiar as empresas a lidar com ameaças digitais complexas.
A RSA Conference™, está entre as principais conferências e exposições de segurança cibernética do mundo, realiza seu evento anual em São Francisco de 6 à 9 de maio, no Moscone Center.
A Conferência RSA está em seu 33º ano reunindo os principais líderes mundiais de segurança cibernética, governamentais e empresariais para aprender, dissecar tendências atuais e futuras e traçar estratégias sobre as melhores práticas para enfrentar as ameaças do presente e do futuro.
Protegendo o caminho para a inovação em IA
No segundo dia de RSAC, o vice-presidente de Estratégia de Segurança da IBM, Kevin Skapinetz, iniciou a sessão keynote intitulada “Securing New Limits: Protecting the Pathway for AI Innovation” falando sobre o papel da inteligência artificial (IA) em ampliar as capacidades de segurança e tornar as equipes mais produtivas.
Uma das preocupações destacadas por Skapinetz é que 60% dos profissionais de segurança afirmam terem vivenciado burnout no trabalho, e 85% relatam que o burnout leva a mais vazamentos de dados. É nesse aspecto que a integração entre o trabalho diário em cibersegurança e os modelos de IA se torna imprescindível.
Estamos desbloqueando o que poderia ser o próximo grande multiplicador de força na conquista de avanços que nos permite reimaginar nossos limites humanos. No futuro, não acreditamos que os profissionais de segurança vão desaparecer, mas talvez isso aconteça com aqueles que não usarem IA. Essa visão gera duas grandes consequências para a indústria da cibersegurança
1 – Ela vai transformar como nossas equipes trabalham todos os dias. Estamos lidando com uma variedade enorme de tecnologias, antigas e novas, incontáveis vulnerabilidades e más configurações e erros humanos, além da crescente superfície de ataque em ambientes altamente distribuídos.
2 – Ela vai transformar aquilo que precisamos proteger. Não adianta usar soluções antigas para problemas novos. À medida que a IA vai integrando e sofisticando muito a forma como lidamos com dados de alto valor, ela também vai expandindo tudo o que precisamos proteger. Esse é o grande desafio: não estamos preparados, e também não estamos conseguindo nos preparar rápido o suficiente.
Com a adição da IA, tarefas que antes levavam meses agora são realizadas em minutos.
Kevin Skapinetz destacou a necessidade de proteger não apenas os modelos de IA, mas também os dados sensíveis usados para treiná-los. Para isso, divulgou uma publicação recém-saída do forno, a Securing generative AI: what matters now, uma parceria entre a IBM e a AWS, com insights de pesquisas sobre como garantir a segurança em todo o processo de desenvolvimento de IA.
Ele destaca que a IBM começou a usar este ano um novo framework para segurança no uso de inteligência artificial chamado “Securing Gen AI”, focado em priorizar abordagens defensivas contra os ataques mais prováveis. Ele delineou um pipeline de IA composta por três etapas:
01 Coleta e manipulação de dados.
02 Desenvolvimento e treinamento de modelos.
03 Inferência e uso real da IA.
Kevin destacou que cada fase pode se tornar alvo de novas ameaças, desde a exfiltração de dados sensíveis até ataques de cadeia de suprimentos que ocultam comportamentos maliciosos.
A abordagem recomendada por Kevin para a segurança da IA é simples: focar na proteção dos dados, modelos e infraestrutura relacionados, e implementar governança em todo o ciclo de vida da IA.
Kevin ressaltou a importância de identificar e gerenciar Shadow AI dentro das organizações, proteger modelos e dados contra exfiltração e remediar vulnerabilidades e configurações inadequadas.
Embora a IA traga desafios desconhecidos, os fundamentos básicos de segurança continuam relevantes.
Q&A com Rosa Bolger, Vice-presidente de Defesa Cibernética e Tecnologia, IBM
Ainda durante sua apresentação, Kevin convidou ao palco a renomada engenheira e vice- presidente de Defesa Cibernética e Tecnologia da IBM Rosa Bolger para um Q&A. Abaixo estão as respostas de Bolger.
Como a IA generativa mudou sua abordagem de segurança e o que mudou em seu mundo em geral?
A IA mudou o mundo, ela se tornou uma espécie de assistente virtual. Você viaja para qualquer lugar sem falar a língua e consegue se comunicar verbalmente com os habitantes locais. No que diz respeito à cibersegurança, há muitas oportunidades de executar, detectar e responder mais rapidamente. É preciso investir no treinamento e capacitação dos times de segurança para que conheçam os cenários e as ameaças em cada fase do modelo, além de desenvolver proteções para ele, então as coisas estão mudando, mas a base permanece a mesma.
Como você pensa em abordar o desafio da segurança de dados com a IA?
Eu me preocupo com 3 aspectos. Primeiro, para treinar e ajustar o modelo, precisamos de petabytes de dados. Por exemplo, a IBM está usando IA para converter COBOL para Java. Esses petabytes de dados? Muitos deles contêm informações confidenciais de negócios. Antes, esses dados estavam protegidos dentro da rede. Agora, estão incorporados aos nossos modelos. Como proteger isso também? Segundo, há a preocupação com propriedade intelectual, muitas informações nos modelos não devem ser acessadas por muitos, e daí nos preocupamos também com controles de acesso, segurança de aplicativos, segurança de APIs… Terceiro e mais importante: os “pesos” do modelo [os aspectos que trazem valor a ele]. Se você abrir o modelo, encontrará muitos pesos que se conectam e determinam sua força e direção, são realmente o cérebro de funcionalidade do modelo, e precisamos protegê-los para que não sejam roubados.
O framework que mostramos mais cedo destaca vários estágios da proteção da IA e do pipeline. Qual estágio te preocupa mais?
Temos o modelo de treinamento, temos o modelo em desenvolvimento e depois temos a execução. Alguns modelos de IA são usados em situações reais muito críticas. Por exemplo, o MIT publicou um documento onde médicos estão usando hoje modelos de IA para determinar o tratamento mais eficaz para pacientes terminais. Pensando nisso, não consigo escolher apenas uma etapa. Devo proteger o modelo de ponta a ponta. Eu me reocupo-me com a rápida e mal controlada disseminação da IA. Também me preocupo com o uso desgovernado da IA. E também me preocupo com a mineração de dados ou manipulação de dados. Mas para isso, a boa notícia é que, se você combinar um produto de governança de dados com algo como o IBM Guardium, você tem uma maneira de proteger esse espaço.
Última pergunta. Você acha que a IA generativa vai ajudar os CISOs a melhorarem a cibersegurança fora da IBM?
Eu vejo muita esperança nisso. Eu vejo bastante fadiga e burnout nos times sobrecarregados, e acho que há uma oportunidade aqui. Estamos usando a IA para tarefas manuais mais triviais, para analisar ameaças e vulnerabilidades, resumir essas ameaças para responder mais rápido a um incidente e contê-lo. Há outras menos triviais, como automatizar threat hunting. Você pode automatizar a contagem de ameaças para procurar o adversário. Outra possibilidade que me anima bastante é que estamos começando a ver os primeiros recursos para encontrar e corrigir vulnerabilidades de software com IA. Imagine se nossos produtos conseguirem corrigir a si mesmos? Seria fantástico.
O Dilema da Inteligência Artificial
Conhecida como “a madrinha da inteligência artificial” e nascida em Chengdu, na China, Fei-Fei Li é professora de Ciência da Computação na Universidade de Stanford e fundadora do Instituto Stanford para a IA Centrada no Ser Humano.
Ela se juntou a Lisa Monaco, Vice-Procuradora-Geral do Departamento de Justiça dos EUA, em uma conversa moderada por Miriam Vogel, presidente do Comitê Consultivo Nacional de IA (NAIAC) e presidente e CEO da EqualAI, sobre os rumos da inteligência artificial.
Monaco expressou preocupação com a capacidade da IA de reduzir as barreiras de entrada para criminosos, potencializando ameaças cibernéticas em escala e velocidade. Ela alertou para a possibilidade de interferência relacionada à IA em processos eleitorais, enfatizando a necessidade de vigilância e aplicação da lei para combater a disseminação de desinformação.
Por outro lado, Li ressaltou que a IA também pode ser parte da solução, oferecendo ferramentas para detectar fraudes, aumentar a segurança e identificar padrões em grande escala. Ela defendeu o desenvolvimento e a governança responsáveis da IA, enfatizando a importância da colaboração política e do monitoramento contínuo do progresso tecnológico.
Confira, a seguir, os principais momentos desta conversa.
Miriam Vogel: Quais são os principais desafios que a IA apresenta no campo da cibersegurança?
Lisa Monaco: Quando penso sobre as ameaças nas quais estamos focados no Departamento de Justiça, do ponto de vista criminal e de segurança nacional, bem como ameaças à igualdade de oportunidades e tratamento igualitário, estamos preocupados com a capacidade da IA de reduzir as barreiras de entrada para criminosos de todos os tipos.
A capacidade da IA de potencializar atores maliciosos, seja Estados-nação que a utilizam como ferramenta de repressão e para potencializar sua capacidade de se engajar em autoritarismo digital, a capacidade da IA de potencializar a ameaça cibernética permite que hackers encontrem vulnerabilidades e as explorem em escala e velocidade… Então, há uma série de preocupações que temos — e antes mesmo de chegarmos às questões de assédio e potencialização da desinformação online, exploração infantil, entre outros. Eu poderia continuar indefinidamente com uma lista de horrores, mas estamos muito, muito focados em combater e responder a essas ameaças.
Miriam Vogel: A IA pode ser parte da solução para esses problemas?
Fei-Fei Li: A resposta curta é sim, mas a resposta mais longa é que cada ferramenta que a humanidade criou é uma faca de dois gumes, desde o primeiro machado de pedra até a eletricidade a vapor, incluindo computadores, aviões, biotecnologia… Agora, a IA. Acho que realmente precisamos reconhecer que cada ferramenta pode ter um uso duplo. Então, a IA pode absolutamente, como Lisa disse, diminuir [a barreira de entrada de] atividades criminosas e causar muitos problemas, mas também é uma ferramenta. É uma nova ferramenta de computação para combater atividades criminosas, aumentar a segurança, detectar fraudes, identificar padrões em uma escala que nenhum humano pode. Então, acho que precisamos reconhecer tanto as ameaças quanto as oportunidades.
Miriam Vogel: A revista Time proclamou que 2024 não é apenas um ano eleitoral, mas provavelmente o ano eleitoral, com 64 países tendo eleições e quase metade da população mundial votando este ano. O que você acha sobre o risco de interferência relacionado à IA, e o que o Departamento de Justiça dos EUA está fazendo para se antecipar a esses riscos?
Lisa Monaco: Estamos profundamente cientes do risco representado pela IA quando se trata do direito de voto e, novamente, da capacidade de atores maliciosos disseminarem desinformação para espalhar, na melhor das hipóteses, confusão e, na pior das hipóteses, caos e desconfiança em nosso sistema.
Há muita conversa sobre estruturas legais e marcos regulatórios para IA no horizonte. Mas minha própria visão é que, embora tudo isso seja importante, também precisamos reconhecer que não estamos começando do zero.
Darei um exemplo. É ilegal espalhar e disseminar informações falsas sobre a hora, local ou maneira de votar. E no ano passado, o Departamento de Justiça garantiu a condenação de um influenciador que estava espalhando desinformação em redes sociais. Este indivíduo disse que você poderia votar via SMS. Todos nós sabemos que as eleições não são American Idol; você não pode votar assim. Então, garantimos a condenação desse indivíduo por espalhar desinformação.
Esse caso não envolveu o uso de IA, mas não é preciso muita imaginação para perceber que poderia — e que é certo que no futuro a IA poderá ser usada para potencializar exatamente esse tipo de esquema. Portanto, estamos de olho e vamos estar muito, muito focados em usar todas as ferramentas que temos para ir atrás daqueles que estão tentando privar os indivíduos de terem suas vozes ouvidas. Porque, no final do dia, fraude com IA ainda é fraude, e vamos estar na caça e focados em fazer valer a lei.
Miriam Vogel: Como fundadora do Instituto Stanford para a IA Centrada no Ser Humano, doutora Li, você acabou de lançar a sétima edição do AI Index Report, reconhecido globalmente como uma das fontes com maior credibilidade e autoridade no tema.
Fei-Fei Li: Uma das crenças do Instituto Stanford para a IA Centrada no Ser Humano é que precisamos usar a IA para melhorar a condição humana por meio da colaboração política. E isso é algo que, você sabe, não é uma ideia intuitiva do Vale do Silício. Acreditamos que o desenvolvimento e a governança responsáveis são críticos para o nosso futuro.
Eu estou muito orgulhosa do trabalho dos meus colegas [ao lançar a sétima edição do AI Index Report]. Não posso reivindicar o crédito, e ter este índice todo ano é realmente uma ótima maneira de continuar a avaliar e ser honesto sobre o que essa tecnologia é e para onde ela está indo. Eu acredito que esse é o papel do setor público e de organizações como a Universidade de Stanford.
Uma descoberta [do relatório deste ano] é que a descoberta científica está se acelerando graças à IA. Acho isso profundo. Não é uma dessas notícias orientadas para negócios que as pessoas gostam de ler, mas é profundo para nossa civilização.
Miriam Vogel: O que você acha que podemos esperar ver nos próximos 18 a 24 meses no desenvolvimento da IA?
Fei-Fei Li: Nossa, vai continuar sendo emocionante. E quando digo emocionante, não estou apenas sendo otimista. Estamos em um ano eleitoral, e vamos ver muita tensão entre Big Tech, open source e sobre como vamos colocar barreiras ao redor de IA mas seguir fertilizando esse ecossistema.
Como tecnóloga, também vejo a tecnologia avançando em direções que estão além de nossa imaginação. Sei que nos últimos dois anos estivemos hiperfocados em LLMs, é uma tecnologia poderosa, é simplesmente incrível. Mas a maneira como nos relacionamos uns com os outros e com o mundo vai além dessas linguagens. Vivemos neste mundo, vivemos no espaço de tantas pessoas, objetos e todo o resto… pessoalmente, trabalho com inteligência espacial, com aprendizado de robôs, trabalho com modelos multimodais de inteligência espacial, modelos de agentes… enfim, acho que há muito mais além dos LLMs — e estou empolgada com isso.
Harmonizando a segurança de IT e OT na era da convergência
Segurança em ambientes OT são um grande desafio para a indústria. Este painel trouxe Bryson Bort, fundador e CEO da SCYTHE, e Jennifer Minella, fundadora e principal conselheira da Viszen Security, para discutir como criar uma estratégia de segurança holística voltada para ambientes de tecnologia operacional e sistemas de controle industriais.
A principal questão colocada, já no início do keynote, é em relação à particularidade dos ambientes de OT. “A principal mensagem de hoje, se você não levar mais nada além do fato de que somos muito divertidos, é que queremos explicar a você por que e como OT é fundamentalmente diferente”, brincou Minella.
Alguns desafios únicos enfrentados na identificação e proteção de ativos em ambientes OT incluem questões como a falta de atualização de inventários e a complexidade de varreduras de rede devido a dispositivos sensíveis. Embora a segmentação de redes seja uma estratégia crítica, os palestrantes alertaram contra a simples transposição de práticas de IT para OT, destacando a importância de uma abordagem mais holística e adaptada.
A segmentação em OT deve ser abordada considerando três principais tópicos:
01 Pessoas e processos compartilhados
É importante estabelecer relacionamentos e parcerias entre as equipes de IT e OT, o que envolve a criação de equipes multidisciplinares e a comunicação efetiva entre elas. É necessário entender as necessidades e prioridades de cada equipe e trabalhar juntos para garantir a segurança e o bom funcionamento dos sistemas OT. Além disso, é importante envolver as partes interessadas e obter seu apoio para as iniciativas de segurança.
02 Infraestrutura de rede compartilhada
A segmentação da rede entre IT e OT não deve se limitar a usar a mesma infraestrutura de rede e só atribuir VLANs diferentes para cada ambiente, pois isso pode comprometer a segurança. Em vez disso, é necessário implementar uma arquitetura defensiva que garanta a separação adequada entre os ambientes de IT e OT. Isso pode envolver a criação de zonas de segurança e a implementação de firewalls e outros controles de segurança para proteger os sistemas OT.
03 Contas e aplicativos compartilhados
É importante evitar o compartilhamento de contas de usuário entre os ambientes de IT e OT. Isso pode criar vulnerabilidades significativas, pois as credenciais de um ambiente podem ser usadas para acessar o outro. Além disso, é importante garantir que os aplicativos e sistemas utilizados em ambos os ambientes sejam devidamente configurados e atualizados para evitar vulnerabilidades conhecidas.
Enquanto em IT é comum utilizar ferramentas de varredura de rede para descobrir e catalogar ativos, em OT essa abordagem pode ser problemática, pois certos dispositivos não suportam esse tipo de varredura e podem ser danificados por pacotes de dados não esperados. Portanto, é necessário realizar inspeções físicas e conseguir informações de processos de negócios para obter um inventário completo em ambientes OT.
Outro ponto de destaque foi a gestão de vulnerabilidades, em que os palestrantes enfatizaram a necessidade de uma abordagem estratégica e baseada em risco, considerando as restrições operacionais e de infraestrutura que muitas vezes impedem a aplicação simples de patches.
Muitos sistemas de OT são legados e executam sistemas operacionais antigos, como o Windows XP. Esses sistemas legados são vulneráveis a ataques, pois muitas vezes não recebem mais suporte e atualizações de segurança. Como resultado, a gestão de vulnerabilidades em OT se torna um desafio, pois a aplicação de patches não é uma solução viável devido à falta de suporte e à complexidade do processo de atualização em ambientes de OT. “O simples ato de aplicar patches não é sempre viável em ambientes OT”, ressaltaram.
A apresentação destaca que apenas cerca de 4% das vulnerabilidades em OT podem ser corrigidas por meio de patches. Além disso, o processo de aplicação de patches em sistemas de OT é complicado e requer coordenação com fornecedores e agendamento de janelas de manutenção, tornando a gestão de vulnerabilidades em OT mais complexa e desafiadora em comparação com ambientes de IT tradicionais.
Isso sublinha a importância de uma abordagem mais ampla para a gestão de vulnerabilidades, incluindo a mitigação de riscos quando a aplicação de patches não é uma opção — o que é algo que profissionais de segurança em IT também deveriam considerar mais, na visão de Bort.
Na última metade do painel, Minella destacou a importância da cultura organizacional e da colaboração entre equipes multidisciplinares para garantir uma abordagem eficaz à segurança cibernética. Ela enfatizou a necessidade de envolver tanto profissionais de IT quanto de OT na construção de programas de segurança robustos.
Se você não está no mundo da cibersegurança e foi encarregado de construir um programa de OT ou incorporar a segurança cibernética de OT ao seu programa de IT, o melhor é começar a fazer perguntas e construir equipes multifuncionais persistentes. Jennifer Minella, fundadora e principal conselheira da Viszen Security
O Modelo Purdue foi apresentado como um framework importante para entender a segmentação e defesa em OT. A apresentação enfatizou a necessidade de considerar os diferentes níveis de risco e capacidade de defesa em cada camada do modelo, comparando-o à proteção de uma família, em que diferentes membros desempenham papéis específicos na segurança do grupo.
Contudo, há também armadilhas comuns na implementação do Modelo Purdue, por exemplo, a centralização de serviços críticos em um único servidor de diretório ativo, o que pode comprometer a segmentação planejada.
Por fim, os palestrantes ressaltaram a importância do apoio dos stakeholders, da avaliação contínua de riscos e do realismo na preparação para possíveis ataques. É preciso que as organizações adotem uma abordagem iterativa e adaptável à segurança de OT, reconhecendo que cada ambiente tem necessidades e desafios específicos.
Inteligência Artificial e os três pilares de segurança da Microsoft
A palestrante, Vasu Jakkal, vice-presitente corporativa da Microsof Security Business, na palestra “Securing AI: What We’ve Learned an What Comes Next”, inicia destacando a significância da inteligência artificial (IA) como uma das tecnologias mais impactantes em nossa era. Ela fala sobre seu potencial transformador em áreas como saúde, educação e segurança, mas ressalta a importância de abordar questões éticas e de segurança para garantir um uso responsável da IA. Com a colaboração de todos, podemos maximizar os benefícios da IA enquanto mitigamos seus desafios potenciais.
O potencial transformador da inteligência artificial é vasto e abrangente, e está crescendo exponencialmente. Desde seu impacto em setores cruciais como saúde, educação, transporte e clima até seu papel fundamental na cibersegurança, a IA está moldando o futuro de maneiras inimagináveis. Porém, assim como a IA tem potencial para o bem, também pode ser usada para o mal. Os atacantes podem usar a inteligência artificial generativa de forma criativa para espalhar malware, criar novas variantes, realizar quebra de senhas mais inteligentemente e explorar a curiosidade humana através de técnicas como o phishing, além de usar novas superfícies de ataque geradas pela inteligência artificial, como prompts e modelos de LLM. Nesse contexto, é essencial que os defensores da cibersegurança sejam capacitados com IA generativa para detectar e responder rapidamente a ameaças cibernéticas, protegendo sistemas e dados com eficácia.
Se você não está no mundo da cibersegurança e foi encarregado de construir um programa de OT ou incorporar a segurança cibernética de OT ao seu programa de IT, o melhor é começar a fazer perguntas e construir equipes multifuncionais persistentes. Jennifer Minella, fundadora e principal conselheira da Viszen Security
Ao ressaltar a importância de agir diante desse cenário, Jakkal destaca que a inteligência artificial tem um grande potencial e promessa, mas os defensores têm a responsabilidade de protegê-la de maneira abrangente. A Microsoft não só apoia o uso da IA, como também desenvolveu um framework baseado em três pilares: descobrir, proteger e governar, este último vinculado à governança.
A palestrante introduz o primeiro pilar do framework com a frase “o que nós não conhecemos gera medo, e o medo cria ansiedade”. O primeiro passo é compreender o uso da IA na empresa, incluindo quais são utilizadas, como são empregadas e quais dados estão envolvidos. Em seguida, é crucial mapear os riscos associados a essas IAs, abordando aspectos como risco de aplicação e modelo, risco de dados e riscos de governança. Ao identificar as vulnerabilidades, torna-se possível proteger os dados, o que constitui o segundo pilar.
Esse pilar, que é a proteção, se baseia no conceito de que é crucial mitigar todos os riscos possíveis e prevenir incidentes por meio da implementação de salvaguardas e controles adequados. A classificação e a rotulagem dos dados desempenham um papel crítico nesse processo, especialmente na proteção de informações sensíveis.
O terceiro pilar, relacionado à governança, visa garantir que o uso das tecnologias seja centrado nas necessidades humanas, com ênfase em considerações éticas e de segurança. A governança de TI desempenha um papel crucial nesse contexto, permitindo a avaliação e o controle do acesso a aplicativos arriscados e a implementação de medidas adequadas conforme o nível de risco. Isso envolve o estabelecimento de políticas e conformidade regulatória, assim como o uso de automações para lidar de forma eficiente com a complexidade do processo.
Quando pensamos em inteligência artificial e segurança, precisamos garantir que seja para todos e por todos.
Precisamos garantir que estejamos incluindo todos na construção disso. A diversidade é importante. A diversidade cognitiva nos ajuda a construir uma IA e uma segurança melhores.
A equidade importa. A inclusão importa.
A transparência importa.
A responsabilidade importa. Temos que considerar todos esses aspectos.
Ainda em relação à governança, é crucial detectar o uso prejudicial da IA e garantir a conformidade com políticas de conduta, envolvendo filtros de segurança de conteúdo e educação do usuário. A educação do usuário é fundamental para compreender como os modelos funcionam e promover a criação e classificação adequadas de conteúdo. Além disso, a inclusão de todos na construção de uma IA e segurança melhores é essencial, considerando a diversidade cognitiva, a equidade e a transparência
Quando pensamos em inteligência artificial e segurança, precisamos garantir que seja para todos e por todos. Precisamos garantir que estejamos incluindo todos na construção disso. A diversidade é importante. A diversidade cognitiva nos ajuda a construir uma IA e uma segurança melhores. A equidade importa. A inclusão importa. A transparência importa. A responsabilidade importa. Temos que considerar todos esses aspectos.
Como otimista em relação à IA, a palestrante acredita que esta era desbloqueará um imenso potencial, permitindo às pessoas sonharem mais alto e construírem um mundo mais justo e igualitário. No entanto, essa promessa vem com uma grande responsabilidade.
“Gartner’s Top Predictions for Cybersecurity 2023-2024
Durante a palestra “Gartner’s Top Predictions for Cybersecurity 2023-2024”, Leigh McMullen apresentou insights importantes sobre as áreas críticas que as organizações precisam considerar para se manterem protegidas em um cenário cada vez mais complexo e desafiador. Neste resumo, destacamos as principais discussões e implicações abordadas durante a sessão.
2024 PRIVACIDADE
Segundo previsões da Gartner, até 2024, espera-se que a regulamentação moderna de privacidade cubra a maioria dos dados do consumidor. No entanto, menos de 10% das organizações terão conseguido transformar a privacidade em uma vantagem competitiva eficaz. Isso ressalta a importância de encarar a privacidade não apenas como uma obrigação de conformidade, mas como um elemento fundamental para conquistar a confiança do cliente e influenciar as decisões de compra. Como destacado por McMuller, “Engaje seus clientes em questões de privacidade. A experiência do usuário em relação à privacidade é real.”
2025 TALENTO
Para 2025, espera-se que quase metade dos líderes de cibersegurança troquem de emprego, sendo 25% para funções completamente diferentes devido a estresses relacionados ao trabalho. Isso destaca a necessidade urgente de priorizar mudanças culturais que promovam a tomada de decisões autônomas e conscientes do risco. Foi enfatizada a importância de gerenciar as expectativas e reconhecer as limitações do programa de segurança, além de utilizar erros humanos como um indicador crucial de fadiga de cibersegurança dentro da organização.
2025 RISCO
Estima-se que até 2025, 50% dos líderes de cibersegurança terá tentado, sem sucesso, utilizar a quantificação do risco cibernético para orientar a tomada de decisões empresariais. Isso destaca a necessidade de compreender as limitações dos dados de quantificação do risco cibernético atualmente disponíveis e considerar os ativos empresariais em vez de cenários específicos para maximizar o uso de dados corporativos existentes.
2026 ZERO TRUST
Foi enfatizado que, até 2026, a abordagem de zero trust se tornará uma visão organizacional predominante. No entanto, converter essa realidade técnica em benefícios comerciais será um desafio. Apenas 10% das empresas terão desenvolvido um programa maduro nesse sentido. Foi recomendado priorizar a implementação de zero trust na mitigação de riscos para os ativos mais críticos, juntamente com a integração de iniciativas de zero trust a outras estratégias de segurança preventiva.
2026 THREAT LANDSCAPE
Até 2026, espera-se que mais de 60% das capacidades de detecção, investigação e resposta a ameaças utilizem dados de gerenciamento de exposição para validar e priorizar ameaças detectadas. Isso destaca a necessidade de ampliar a visibilidade de segurança para incluir sistemas e serviços críticos para a missão, juntamente com a implementação de um programa contínuo de gerenciamento de ameaças e exposição.
2026 CONSELHO DE GOVERNANÇA
Há a previsão de que até 2026, 70% dos conselhos de administração incluirão um membro com experiência em cibersegurança. Isso implicará uma maior supervisão e verificação por parte de membros do conselho mais qualificados, melhorando a visibilidade do risco de cibersegurança e deslocando o foco do relatório com base no perfil dos membros do conselho.
2027 TERCEIROS
Prevê-se que, até 2027, 75% dos funcionários adquirirão, modificarão ou criarão tecnologia fora da visibilidade de TI, aumentando a superfície de ataque. Para lidar com isso, foi sugerido que as estruturas de governança sejam construídas para facilitar a tomada de decisões de risco autônoma e eficaz, alinhando a cibersegurança aos objetivos comerciais.
2027 FATOR HUMANO
Até 2027, espera-se que 50% dos grandes CISOs adaptarão práticas de design centradas no ser humano no controle e no design de processos para minimizar o atrito induzido pela cibersegurança e maximizar a adoção de controle. Isso destaca a relevância de redefinir as expectativas das equipes de segurança sobre a importância do elemento humano e da experiência do usuário, além de introduzir práticas orientadas para resultados, impulsionadas pela empatia, para melhorar as interações humanas e de usuário.
O painel proporcionou uma análise esclarecedora dos desafios que as organizações enfrentarão nos próximos anos. Ficou claro que os tópicos discutidos pela Gartner representam áreas críticas que requerem atenção imediata e estratégias proativas para garantir a segurança digital. Ao adotar as recomendações apresentadas e manter-se atualizado sobre as mudanças no cenário de cibersegurança, as organizações poderão fortalecer sua posição e resiliência diante dos desafios emergentes.
O que mais rolou na RSAC DAY 2
Além das palestras keynotes cobertas até aqui, de forma paralela, ocorreram várias sessões e seminários com ênfase em governança em IA e infraestruturas críticas, entre outros temas. Alguns destaques são:
Na palestra keynote “Securing the Modern Application: From Code to Infrastructure”, Boaz Gelbord, CSO da Akamai, enfatizou a importância de uma abordagem objetiva ao risco na segurança de aplicativos e discutiu o impacto transformador da inteligência artificial (IA) na segurança, especialmente nas áreas de identidade, autorização de usuários, operações e monitoramento de segurança.
Na Track Session “Bye-Bye DIY: Frictionless Security Operations with Google”, Lorenz Jakober, Head de Marketing de Produto da Google Cloud Introduziu o paradigma de operações de segurança modernas do Google, mostrando como avanços em inteligência de ameaças, automação e IA permitem mais resultados com menos esforço. Forneceu insights sobre impulsionar a eficácia das operações de segurança em um ambiente complexo.
A cobertura da RSA Conference 2024 é um oferecimento da SEK Security Ecosystem Knowledge. Think Ahead, Act Now.
Sobre a SEK
Com mais de 20 anos de experiência, 900 colaboradores e mais de 700 clientes na região, atuamos nos mercados do Brasil, Chile, Argentina, Colômbia e Peru, onde contamos com três Cyber Defense Center, dois Cyber Response Center e centros avançados de pesquisa nos Estados Unidos e Portugal.
A SEK oferece um ecossistema que combina as melhores tecnologias, oferta de serviços e um time de profissionais altamente capacitados, para enfrentar os mais diversos desafios da segurança cibernética. A nossa missão é ajudar as empresas a lidarem com ameaças virtuais em toda jornada de cibersegurança, agindo agora e com os olhos no futuro.
pRÓXIMOS eventos APOIADOS POR cRYPTO ID
2024
2025
Confira aqui outros importantes eventos Nacionais e Internacionais sobre Tecnologia. Indique para nós quais eventos você gostaria de ver no Crypto ID! @redacaocryptoid
A Jornada De 10 anos Do Crypto ID: Do Pioneirismo À Referência
Em novembro desse ano completaremos uma década. Desde 2014, construímos uma comunidade apaixonada e engajada, que cresce a cada ano que passa. Atualmente, dois milhões e meio de usuários únicos, por ano, acessam nosso portal e fazem a nossa jornada ser marcada por conquistas, inovação e colaboração.
As empresas mantenedoras têm sido o pilar fundamental para o nosso crescimento contínuo. Esse apoio nos permite manter a qualidade e a relevância das informações que compartilhamos. Agradecemos a cada uma das empresas por acreditar em nossa missão e nos ajudar a construir uma comunidade bem informada e mais segura.
Cadastre-se para receber o IDNews e acompanhe o melhor conteúdo do Brasil sobre Identificação Digital! Aqui!