Gartner aponta pesquisa sobre um passo importante e seguro para o desenvolvimento responsável da IA no Brasil
Assim como apresenta vantagens significativas na implementação dentro das empresas, os avanços da inteligência artificial também implicam riscos emergentes e ameaças cibernéticas no quesito da desinformação em massa – isso é o que aponta o estudo “As principais tendências tecnológicas estratégicas para 2025” do Gartner.
Em uma análise comparativa em relação ao ano anterior, foi constatado que apenas 5% das empresas investem em segurança contra a desinformação. A projeção é que, até 2028, a implantação de soluções de segurança seja adotada por 50% das organizações, enquanto o crescimento de uso de IA avança rapidamente. Recursos de segurança com IA podem ajudar a combater a falta de verificação de fontes confiáveis, a disseminação de deepfakes e conteúdos prejudiciais.
Neste sentido, segue em análise da Câmara dos Deputados o Marco da IA, PL que regulamenta a IA no Brasil e aborda temas fundamentais como: classificação de riscos, com a avaliação entre alto risco e propósito geral, direitos do usuário, visando garantir a privacidade e a não discriminação, responsabilidade e proteção de dados, regulamentação alinhada à LGPD, sistemas de IA e sustentabilidade.
Se aprovado, também haverá incentivos para que os sistemas de IA sejam mais sustentáveis e apoiem pequenas empresas no desenvolvimento de tecnologias inovadoras. Lucas Felisberto, VP LatAm de vendas & CS da Jitterbit, ressalta que o projeto é um passo importante para garantir o desenvolvimento responsável da IA no Brasil.
Devido à maior acessibilidade das ferramentas inteligentes e da aceleração dos aprendizados de máquina, o estudo do Gartner mostra que a desinformação dentro das empresas tem aumentado, o que pode desencadear riscos consideráveis.
Algumas das principais ameaças envolvem informações confidenciais armazenadas por um modelo de fácil acesso por hackers para prática de golpes e fraudes, utilização de prompts para manipulação de um grande modelo de linguagem (LLM) com fornecimento de dados sigilosos, treinamento de processamento de textos para envio de códigos de malware e ransomware, phishing, fake news e engenharia social.
Lucas Felisberto recomenda que as empresas apostem na contratação de serviços de segurança para garantir proteção em automatizações com IA. “Eles podem identificar o uso de mídia sintética em contextos autorizados, comunicação em tempo real ou validação de informações. Além disso, podem monitorar a inteligência sobre narrativas comerciais em redes sociais ou mídias de massa. A prevenção da personificação de indivíduos em transações com a organização envolvendo funcionários, fornecedores, parceiros e clientes, implica a necessidade de investimento em segurança contra a desinformação”.
Inteligência Artificial e a educação: um problema ético
Como a IA Agentic está transformando a forma de trabalhar
A GenDAI está reescrevendo o modelo de pensar projetos industriais
SXSW 2025: IA pode reduzir 8 horas de trabalho por semana e trazer mais propósito profissional
Acompanhe o melhor conteúdo sobre Inteligência Artificial publicado no Brasil.


Cadastre-se para receber o IDNews e acompanhe o melhor conteúdo do Brasil sobre Identificação Digital! Aqui!