Quando se trata de manter a segurança de dados, os especialistas dizem que a inteligência artificial pode ser uma “faca de dois gumes”
Por Kat Jercich
O ataque ao Universal Health Services no mês passado trouxe atenção renovada à ameaça de ransomware enfrentada pelos sistemas de saúde – e o que os hospitais podem fazer para se proteger contra um incidente semelhante.
Especialistas em segurança dizem que o ataque, além de ser um dos incidentes de ransomware mais significativos na história da saúde, também pode ser emblemático das formas como o aprendizado de máquina e a inteligência artificial estão sendo aproveitados por malfeitores.
Com alguns tipos de “worms iniciais”, disse Greg Foss, estrategista sênior de cibersegurança da VMware Carbon Black, “vimos [cibercriminosos] realizando essas ações automatizadas, pegando informações de seu ambiente e usando-as para se espalhar e dinamizar automaticamente; identificando informações de valor; e usando-o para exfiltrar – extrair ilegalmente dados de um determinado sistema informático fechado. “
A complexidade de realizar essas ações em um novo ambiente depende do “uso de Inteligência Artificial e Machine Learning em seu núcleo”, disse Foss.
Uma vez que o acesso é obtido a um sistema muitos malwares não requer muita interferência do usuário. Mas embora a Inteligência Artificial e o Machine Learning possam ser usados para comprometer a segurança dos sistemas, disse Foss, eles também podem ser usados para defendê-la.
“AI e ML são algo que contribui para a segurança de várias maneiras diferentes”, disse ele. “Não é algo que tenha sido explorado, mesmo até recentemente.”
Uma estratégia eficaz envolve análise do comportamento do usuário e da entidade, disse Foss: essencialmente, quando um sistema analisa o comportamento típico de um indivíduo e sinaliza desvios desse comportamento.
Por exemplo, um representante de recursos humanos executando comandos abruptamente em seu host é um comportamento anormal e pode indicar uma violação, disse ele.
Inteligência Artificial e Machine Learning podem ser usados para detectar padrões sutis de comportamento entre os invasores, disse ele.
Dado que os e-mails de phishing costumam influenciar as emoções de uma possível vítima – enfatizando a urgência de uma mensagem para obrigar alguém a clicar em um link – Foss observou que a análise automática de sentimento pode ajudar a sinalizar se uma mensagem parece fora do padrão.
Ele também observou que as próprias estruturas de e-mail podem ser chamadas de sinalização: maus atores podem contar com uma estrutura ou modelo para tentar provocar respostas, mesmo que o próprio conteúdo mude.
Ou, se alguém está tentando desviar ganhos ou medicamentos – particularmente relevante em um ambiente de saúde – IA e ML podem ajudar a trabalhar em conjunto com uma cadeia de suprimentos para apontar aberrações.
Claro, advertiu Foss, a IA não é um baluarte infalível contra ataques. Ele está sujeito aos mesmos preconceitos de seus criadores, e “essas pequenas sutilezas de como esses algoritmos funcionam permitem que eles sejam envenenados também”, disse ele. Em outras palavras, a Inteligência Artificial como outras tecnologias, pode ser uma faca de dois gumes.
Controles de segurança em camadas, soluções robustas de filtragem de e-mail, controle de dados e visibilidade de rede também desempenham um papel vital para manter os sistemas de saúde seguros.
No final das contas, a engenharia humana é uma das ferramentas mais importantes: treinar funcionários para reconhecer comportamentos suspeitos e implementar fortes respostas de segurança.
Usar Inteligência Artificial e Machine Learning “está apenas começando a arranhar a superfície”, disse ele.
Kat Jercich é editora sênior do Healthcare IT News.
Fonte: Healthcare IT News é uma publicação da HIMSS Media.