5 dicas para impor limites aos agentes de IA que dizem “sim” para tudo
Especialistas alertam: sem supervisão humana, a tecnologia autônoma pode se tornar uma ameaça jurídica às empresas e gerar crise de reputação.
Dados da consultoria Research Nester revelam que o mercado global de agentes autônomos – sistemas capazes de tomar decisões, interagir com clientes e executar tarefas sem intervenção humana direta – pode saltar dos US$ 7,84 bilhões estimados no ano passado para US$ 783 bilhões até 2037. No entanto, especialistas alertam que o ganho de eficiência proporcionado pela inteligência artificial vem acompanhado de riscos reais.
“Hoje, não basta apenas adotar a tecnologia. É preciso governá-la com responsabilidade, garantindo que ela potencialize o negócio em vez de se tornar um problema”, diz Carlos Lopes, sócio e diretor de novos negócios da Codeminer42, especializada em desenvolvimento de softwares. O obstáculo, segundo ele, estaria na forma como a IA foi apresentada ao mercado. “No início, muita gente acreditou que bastava fazer uma pergunta e ela resolveria tudo sozinha, mas isso é um equívoco”, ressalta o executivo. “A IA precisa ser bem guiada para entregar respostas corretas, e é o humano quem faz isso.”
Os números comprovam a necessidade dessa supervisão. Estudos do AI Now Institute mostram que sistemas de IA que operam sem acompanhamento de pessoas podem gerar até 2,4 vezes mais decisões injustas ou resultados que prejudicam determinados grupos, na comparação com modelos que passam por monitoramento humano. Outro dado que chama a atenção vem do Gartner, que prevê o cancelamento de pelo menos 40% dos projetos com agentes autônomos em razão de custos, falta de valor claro e governança insuficiente.
Uma IA que bajula o usuário, dizendo “sim” para tudo, por exemplo, pode criar conflitos, aumentar a insatisfação e gerar riscos. Confira as principais ações apontadas por Carlos para garantir que a tecnologia trabalhe a favor do negócio:
- Impor limites: defina parâmetros sobre o que a IA pode ou não decidir e garanta que ela identifique situações que exigem intervenção humana.
- Implementar camadas de supervisão: crie alertas e gatilhos para escalar interações complexas a um operador real; mantenha painéis de monitoramento para acompanhar decisões críticas; e revise periodicamente as respostas da IA para detectar padrões de erro ou vieses.
- Alinhar legislação e governança: utilize técnicas para que os modelos respeitem limites legais, contratuais e de políticas internas.
- Auditar e registrar interações: mantenha logs detalhados de todas as interações, permitindo análise de problemas; e aplique métricas de desempenho e risco, avaliando aonde a IA pode gerar impacto negativo.
- Investir em educação e consultoria: treine equipes internas sobre como trabalhar junto da IA de forma segura; e auxilie na criação de fluxos híbridos humano + IA.
“A virada de chave em 2026 não deve estar na expansão irrestrita dos agentes, mas na construção de arquiteturas híbridas, em que algoritmos operem com parâmetros bem definidos, trilhas de auditoria e mecanismos de escalonamento”, resume.
O perigo na prática
Para otimizar o pré-atendimento de sua empresa, no setor imobiliário, Renata Paula Armellini implantou um agente de IA responsável pela primeira interação com potenciais clientes, antes de repassar aos corretores humanos. “A ideia era automatizar o que pudesse ser automatizado, ganhar velocidade e filtrar melhor os interesses”, conta a empresária.
Em uma dessas interações, um casal em busca de um imóvel para alugar foi atendido pela IA, que se apresentava como “Gabi”, uma tentativa de humanizar o contato. A conversa fluiu, a visita foi realizada e o contrato assinado. “Até ali, eficiência total”. O problema, segundo Renata, surgiu depois da mudança: ao instalarem equipamentos elétricos sem utilizar o testador de voltagem fornecido pela imobiliária, os moradores queimaram o chuveiro e a máquina de lavar. Na tentativa de contato com o setor de manutenção, feita justamente em um dia de equipe reduzida e alto volume de demandas, um dos inquilinos voltou a conversar com a IA.
“Sem compreensão real de cláusulas contratuais, responsabilidades técnicas ou implicações jurídicas, o agente autônomo respondeu ‘sim’ a praticamente todas as solicitações”, lembra ela. “A conversa extrapolou o escopo inicial e a IA ofereceu voucher de hotel, sugeriu indenização pelos aparelhos danificados e chegou a orientar sobre como ajuizar ação contra a própria imobiliária”. A empresária conta que precisou mobilizar profissionais para conter ameaças jurídicas e crises de reputação.
“A situação acabou fugindo do controle. A tecnologia é excelente, mas, quando os agentes autônomos operam sem limites e sem supervisão humana, qualquer decisão automatizada pode se tornar um risco para o negócio”, diz.
Para Carlos, episódios como esse ilustram o risco da autonomia sem governança. “No atendimento, agentes autônomos aumentam velocidade e escala, mas não substituem supervisão humana. Políticas claras de governança, limites bem definidos e monitoramento contínuo são essenciais para transformar tecnologia em vantagem competitiva”, afirma.
Como o RH pode apoiar a adoção da IA
Impacto no mercado de trabalho
Segundo a projeção do Fórum Econômico Mundial (2025), 92 milhões de empregos podem ser substituídos por IA e automação até 2030, enquanto 170 milhões de novas funções devem ser criadas – um aumento de 78 milhões globalmente.
Nos Estados Unidos, a SHRM Automation/AI Survey 2025 indica que 7,8% dos empregos já têm metade das tarefas realizadas com apoio de IA generativa. De acordo com o sócio da Codeminer42, isso evidencia como a automação já se integra ao dia a dia profissional sem necessariamente gerar demissões imediatas. Ao mesmo tempo, o relatório mostra que cerca de 40% dos empregadores esperam reduzir a força de trabalho ao introduzir os agentes em funções automatizáveis, apontando para a substituição de tarefas mais repetitivas.
“No fim das contas, a tecnologia continua sendo uma aliada necessária, mas, no mundo dos negócios, autonomia não pode significar ausência de responsabilidade”, alerta o diretor. “Porque, quando a máquina aprende a dizer ‘sim’ para tudo, quem paga a conta ainda é a empresa”.







