Para André Fossa, o caso do McDonald’s funciona menos como um evento isolado e mais como um sinal do que tende a se repetir frequência
Um vídeo que viralizou nos últimos dias mostrou um suposto chatbot de atendimento do McDonald’s sendo induzido por um usuário a sair completamente do seu papel: em vez de seguir o fluxo de pedido, o sistema respondeu como um assistente de programação, gerando código em Python.
Embora haja indícios de que o conteúdo possa ter sido manipulado, segundo apuração da imprensa internacional, o episódio do caso do McDonald’s expôs um risco concreto que acompanha a rápida adoção de IA generativa em atendimento ao cliente.
O alerta do McDonald’s ganha peso em meio à expansão da tecnologia. Segundo a Gartner, a IA agentiva deve resolver até 80% das interações comuns de atendimento até 2029, com potencial de reduzir custos operacionais em 30%. Ao mesmo tempo, mais de 40% dos projetos devem ser abandonados até 2027, diante de dificuldades para gerar valor ou sustentar operação em escala.

Para André Fossa, cofundador da Cogni2, empresa brasileira especializada em plataformas de agentes de inteligência artificial para atendimento, o problema não está no modelo em si, mas na forma como ele vem sendo colocado em produção. “O mercado está criando a ideia de que dá para operar IA em atendimento como se fosse só plugar um modelo e escrever um prompt. Isso funciona em demo, mas não sustenta operação real. Quando você coloca esse tipo de sistema em contato com cliente, com dados e com processos, o nível de exigência é outro, e muitas vezes as decisões estão sendo tomadas sem o nível de diligência técnica necessário”, explica o executivo.
A possibilidade de induzir modelos a sair do comportamento esperado não é novidade. A OWASP, principal referência global em segurança de aplicações, aponta o prompt injection como o risco número 1 em aplicações com modelos de linguagem, quando entradas do usuário conseguem alterar o comportamento da IA de forma não intencional.
Nos primeiros anos da IA generativa, esse tipo de exploração aparecia em tom quase experimental, com usuários tentando “enganar” chatbots por meio de comandos específicos. Um levantamento acadêmico identificou mais de 1.400 prompts de jailbreak circulando publicamente nesse período.
O cenário muda quando esses modelos deixam de ser apenas interfaces de conversa e passam a operar dentro de sistemas corporativos. “Antes, isso gerava no máximo uma resposta fora de contexto. Agora, esses sistemas podem acessar dados, seguir regras de negócio, acionar APIs e até executar tarefas. A mesma fragilidade passa a ter impacto direto na operação”, afirma Fossa.
Na avaliação do especialista, boa parte das empresas ainda trata a IA como uma camada superficial e não como parte da infraestrutura do atendimento. “O erro é achar que um bom prompt resolve o problema. Prompt é só uma parte. Sem controle de escopo, governança de dados, orquestração e monitoramento, você está basicamente confiando que a IA vai se comportar sempre como esperado, e isso não é uma estratégia.”
Fossa usa uma comparação simples para ilustrar o ponto: “IA generativa é como uma serra elétrica. É extremamente eficiente quando existe processo, proteção e controle. Sem isso, você está colocando uma ferramenta poderosa em um ambiente real sem barreiras.” Na prática, a diferença entre uma solução que impressiona em demonstração e uma que funciona em produção ainda é subestimada, segundo ele.
“Muita coisa parece funcionar bem em ambiente controlado. Mas, quando entra em produção, com volume, variabilidade de comportamento do usuário e integração com sistemas, as fragilidades aparecem”, complementa. Esse descompasso ajuda a explicar por que parte relevante dos projetos não avança ou é abandonada antes de gerar retorno.
Para o especialista, o ponto mais crítico é que falhas deixam de ser superficiais à medida que a IA ganha autonomia dentro das empresas. “Responder código em Python é quase inofensivo. O problema é quando a mesma lógica aparece em contextos de dados pessoais, cobrança, saúde ou finanças, ou na execução de processos. Aí você deixa de ter um erro curioso e passa a ter um risco real.”
Empresas mais maduras têm tratado a IA como uma operação estruturada, com múltiplas camadas de controle, desde a definição clara do que o agente pode ou não fazer até a orquestração de instruções, controle de ferramentas, governança de dados, testes e monitoramento contínuo.
Na Cogni2, esse modelo inclui, entre outros pontos, delimitação de escopo dos agentes, controle de acesso a dados e sistemas e uso de IA para testar o comportamento dos próprios agentes antes da entrada em produção. Para Fossa, o caso do McDonald’s funciona menos como um evento isolado e mais como um sinal do que tende a se repetir com mais frequência à medida que a adoção avança.
“A tecnologia vai avançar rápido, e a pressão por adoção também. Mas sem arquitetura, governança e controle, a tendência é que mais empresas aprendam isso em público, e do jeito mais difícil”, conclui Fossa.
Sobre a Cogni2
A Cogni2 é uma empresa brasileira de tecnologia especializada em inteligência artificial para automação de jornadas de atendimento, vendas e cobrança. A companhia desenvolve agentes de IA capazes de operar processos complexos em produção, reduzindo custos, aumentando eficiência e melhorando a experiência do cliente em grandes empresas de setores como varejo, serviços financeiros, telecomunicações e utilities.
Adobe Reconhece Globant como Parceira do Ano em Customer Experience Orchestration para LATAM
Cadastra explica que anúncios no ChatGPT marca o fim de um ciclo e o início de uma nova lógica
TDC Summit IA 2026: A Consolidação da Inteligência Artificial como Infraestrutura de Negócio
Acompanhe o melhor conteúdo sobre Inteligência Artificial publicado no Brasil.


Cadastre-se para receber o IDNews e acompanhe o melhor conteúdo do Brasil sobre Identificação Digital! Aqui!





























