A inteligência artificial corporativa entrou em uma nova fase: agentes autônomos já não apenas sugerem, mas decidem, agem e se conectam a sistemas críticos sem intervenção humana. Neste artigo, o advogado Ricardo Freitas Silveira, especialista em LGPD e IA, analisa como essa mudança transforma a autonomia técnica em um desafio de governança, responsabilidade institucional e compliance, especialmente em ambientes regulados.
Por Ricardo Freitas Silveira
Nos últimos anos, a IA corporativa atuava como copiloto: sugeria textos, organizava e-mails, resumia relatórios. Útil, mas passiva. Respondia quando chamada.

Essa era acabou.
Agora surgem agentes autônomos: com memória persistente, acesso a calendários, e-mails, bases de dados e APIs. Eles decidem, agem, encadeiam tarefas e interagem com sistemas — muitas vezes sem humanos no loop. Essa mudança é profunda e ainda subestimada pelos executivos.
O caso que expôs a vulnerabilidade
Em janeiro de 2026, o OpenClaw — antes chamado Moltbot e Clawdbot, um agente autônomo open-source criado por Peter Steinberger da Nutrient/PSPDFKit — viralizou ao rodar localmente em computadores, controlando apps reais como WhatsApp, Slack e e-mails para executar tarefas complexas via conversa simples.
Sua extensão natural, o Moltbook (rede social exclusiva para agentes de IA), revelou o risco: múltiplas instâncias desses bots começaram a interagir sozinhas em fóruns chamados Submolts, compartilhando instruções, negociando dados e se atualizando autonomamente a cada quatro horas — sem qualquer supervisão humana.
Não foi uma “conversa entre empresas”, mas um comportamento emergente de agentes colaborando para completar objetivos, expondo vulnerabilidades como painéis administrativos acessíveis na internet, vazamento de chaves API e potenciais ataques de prompt injection. Em empresas, isso se traduz em vazamentos sensíveis: colaboradores debatem com intenção; agentes seguem a lógica operacional. Eficiência técnica vira exposição sistêmica.[1]
Da negligência humana à emergência sistêmica
Não se trata de anomalia, mas de arquitetura em ação, já presente em milhares de empresas. Os riscos florescem em fluxos automáticos: compartilhamentos excessivos de dados, comportamentos replicados e auditorias quase impossíveis.
A grande pergunta para boards é simples: sua empresa rastreia se agentes compartilham informações corporativas — com ou sem o conhecimento do usuário? Integrações rápidas via API, conectando CRM, finanças e documentos, entregam produtividade imediata, mas deixam a governança para depois.
Questão institucional, não só tecnológica
Para setores regulados como finanças e saúde, isso transcende a tecnologia e vira responsabilidade institucional. Quem responde por dados expostos em integrações automáticas? Como auditar decisões sem cliques humanos? Se instâncias de OpenClaw geram colaborações espontâneas no Moltbook, imagine agentes corporativos acessando contratos, projeções financeiras e estratégias competitivas para “otimizar” processos.
Governança antes de escala
Empresas que prosperam com esses agentes impõem governança desde o início: permissões segmentadas por função, trilhas de auditoria detalhadas e supervisão humana em pontos críticos. Trate-os como credenciais privilegiadas, não como apps de produtividade. A história da tecnologia repete o padrão: entusiasmo inicial, adoção massiva e, só então, controles. Para IA autônoma, inverter essa sequência evita custos irreparáveis.
Ações práticas imediatas
Comece mapeando implantações atuais: identifique ferramentas de IA conectadas a sistemas internos, verifique permissões concedidas e dados acessíveis. Estabeleça aprovações em camadas para integrações sensíveis, defina políticas claras de retenção e compartilhamento de dados, e configure alertas para fluxos anômalos ou decisões automatizadas. Envolva C-level, conselho, jurídico e Compliance nessa conversa urgente.
Executivos que agem agora não freiam a inovação — a tornam sustentável. O risco não é a IA. É autonomia sem responsabilidade. E essa, cada vez mais, é decisão de C-level, conselho, jurídico e Compliance — não só de CTO.
Citações:
[1] Moltbot Gets Another New Name, OpenClaw, And Triggers … https://www.forbes.com/sites/ronschmelzer/2026/01/30/moltbot-molts-again-and-becomes-openclaw-pushback-and-concerns-grow/
Ricardo Freitas Silveira é sócio d Lee, Brock, Camargo Advogados (LBA), Doutor e Mestre em Direito, Professor e Pesquisador em Inteligência Artificial e Governança Digital.
Implicações da ausência da ANPD, confira a entrevista com Ricardo Freitas
Sobre a LBCA

Fundada em 2003, a Lee, Brock, Camargo Advogados (LBCA) se destaca pela sua abordagem cooperativa com os clientes e busca por soluções inovadoras para os desafios do direito empresarial. A banca desenvolveu uma plataforma de tecnologia própria para auxiliar na gestão de dados e documentos, permitindo a avaliação de riscos e tomada de decisões estratégicas.
Além disso, a LBCA expandiu sua atuação, agregando profissionais de diversas áreas como TI, engenharia, business intelligence e gestão de informações, oferecendo soluções multidisciplinares e personalizadas para as necessidades de seus clientes.
Com uma equipe talentosa e em constante crescimento, a LBCA se consolidou como uma das bancas de advocacia mais inovadoras e confiáveis do país, oferecendo soluções eficazes e agregando valor aos negócios de seus clientes. A reputação da LBCA é resultado de sua capacidade de integrar tecnologia, conhecimento especializado e uma abordagem focada no cliente.
Acompanhe o melhor conteúdo sobre Inteligência Artificial publicado no Brasil.


Em nossa coluna LEGALTECH, sobre direito e tecnologia, você encontra excelentes artigos sobre a legislação brasileira e internacional relacionada à tecnologia e aplicações da tecnologia na prática jurídica. Acesse agora mesmo!































