Articles
12 de março de 2026
Resolução de Entidades é o Principal Problema em Agentes de IA
Na Revo AI estamos construindo um agente de IA ambiente baseado em email. Escrevemos sobre por que o email resolve o problema de cold start para agentes de IA. Este post é sobre o problema de engenharia mais difícil que encontramos ao construí-lo — e por que achamos que é o problema mais difícil em IA ambiente em geral.
O problema que ninguém discute porque não é glamoroso
A conversa sobre IA é sobre modelos. Qualidade de raciocínio, janelas de contexto, uso de ferramentas, velocidade de inferência. Tudo isso importa. Nada disso é onde agentes em produção realmente falham.
Agentes falham na resolução de entidades.
A mesma pessoa aparece como primeiro nome no Slack, nome completo em um contrato, domínio de email em uma conversa, nome de empresa em um registro de CRM e ID de conta em um ticket de suporte. Um agente operando em um contexto profissional vê todos esses sinais e precisa decidir, sem alucinar, se eles se referem à mesma entidade — e qual é a relação dessa entidade com tudo mais que ele conhece.
Erre isso e o agente não apenas falha silenciosamente. Ele redige uma resposta usando linguagem do negócio errado. Faz follow-up com o contato errado. Conecta uma conversa sensível a alguém que não deveria vê-la. Falhas de resolução de entidades em um agente ambiente não são problemas de UX. São riscos de relacionamento e potenciais violações de privacidade.
Esse é o problema em que gastamos mais tempo do que qualquer outro na Revo AI. Ainda não está resolvido — está gerenciado. Eis o que aprendemos.
Por que a resolução de entidades é estruturalmente mais difícil para agentes do que para busca ou CRM
Resolução de entidades não é um problema novo. Mecanismos de busca, CRMs e data warehouses lidam com versões dele há anos. Mas agentes enfrentam uma versão mais difícil por três razões.
O custo do erro é assimétrico. Um autocomplete errado em um cliente de email comum é irritante. Uma correspondência de entidade errada em um agente que redige e envia em seu nome é um risco de relacionamento. A tolerância ao erro é uma ordem de magnitude menor do que em ferramentas passivas.
O sinal é mais ruidoso. Email é informal, inconsistente e humano. Pessoas se referem à mesma entidade de dezenas de maneiras diferentes em milhares de mensagens. Não há schema. Não há convenção de nomenclatura imposta. O agente precisa inferir estrutura de sinal não estruturado em escala.
O grafo é dinâmico. Entidades mudam. Pessoas mudam de cargo. Empresas são adquiridas e domínios mudam. O grafo de entidades não pode ser construído uma vez e cacheado — ele precisa se atualizar continuamente conforme novas mensagens chegam e sinalizar conflitos quando o novo sinal contradiz o que ele pensava saber.
O que realmente construímos na Revo AI
Mantemos um grafo de entidades vivo que se atualiza com cada mensagem processada. O grafo conecta pessoas, empresas, negócios, conversas e ferramentas — resolvendo a mesma entidade através de diferentes convenções de nomenclatura e fontes de dados em tempo real.
Quando o grafo encontra sinais conflitantes — dois contatos chamados James na mesma empresa, um domínio que mudou após uma aquisição, um nome que poderia plausivelmente se referir a duas pessoas diferentes — ele sinaliza a ambiguidade ao invés de adivinhar. Tratamos ambiguidade não resolvida como um estado de primeira classe, não um erro a suprimir.
Isso nos custa cobertura de automação. Sinalizar ambiguidade significa que algumas ações não são tomadas automaticamente e aparecem para revisão humana. Fizemos essa troca deliberadamente. A alternativa — adivinhar e errar — produz o tipo de falha que faz usuários desligarem um agente permanentemente.
A resolução de entidades também precisa acontecer dentro de limites rígidos de privacidade. Um agente lendo uma caixa de entrada profissional tem acesso a informações sensíveis de clientes, negócios, equipes e camadas organizacionais. O grafo de entidades precisa saber não apenas como as entidades estão conectadas, mas o que o agente tem permissão para conectar. Controle de acesso em nível de domínio não é infraestrutura opcional — é parte fundamental da lógica de resolução. Resolução de entidades sem controles de privacidade é uma responsabilidade, não um recurso.
O que IA ambiente realmente faz quando funciona
A maioria dos produtos de IA ambiente morreu no espaço entre "tecnicamente correto" e "confiável". A parte difícil não é construir um agente que pode agir — é construir um que sabe quando não agir.
Eis como é uma terça-feira de manhã quando a resolução de entidades está funcionando:
8:14. "Lisa Chen sinalizou a cláusula de PI no contrato Meridian. Resposta pronta usando sua linguagem padrão do negócio Acme."
8:22. "Sem resposta de James Park sobre orçamento Q2 (5 dias). Follow-up redigido."
9:01. "Sarah mencionou que a migração terminou. Três tickets de clientes referenciam esse bug. Atualizações redigidas."
Cada uma: aceitar, recusar ou dar feedback. Essa é toda a superfície de interação. O agente planejou o trabalho. O usuário governa o resultado.
A consequência de UX: confiança é conquistada incrementalmente
Projetamos o agente da Revo AI para começar restrito e conquistar seu caminho para ações mais amplas. No primeiro dia ele mostra coisas simples: um follow-up esquecido, um rascunho para uma resposta pendente, um conflito sinalizado. Aceitar ou descartar. Sem configuração, sem prompts, sem manual.
Este não era o design original. Foi uma resposta a observar usuários iniciais desligarem um agente que estava tecnicamente correto mas se movia mais rápido do que eles estavam prontos para confiar. Divulgação progressiva não é apenas um padrão de UX — é como você dá aos usuários tempo suficiente para verificar que a resolução de entidades está funcionando antes do agente começar a tomar ações de maior risco.
O que isso significa para infraestrutura de agentes
Resolução de entidades é infraestrutura, não um recurso. É a camada que determina se um agente de IA operando em contexto profissional real pode ser confiável para agir — ou se é uma demo sofisticada que quebra no momento em que os dados ficam bagunçados.
A maioria dos frameworks de agentes trata isso como um caso extremo. Não é. É o problema principal. Os agentes que conquistam uso de longo prazo serão aqueles que o resolvem com a combinação certa de arquitetura de grafo, tratamento de ambiguidade, controles de privacidade e ritmo de confiança — não os com a melhor inferência.
Email é o ambiente mais difícil para resolver resolução de entidades, porque os dados são os mais bagunçados e a tolerância ao erro é a menor. É também por isso que resolvê-lo no email generaliza. A infraestrutura que construímos na Revo AI para resolver entidades em uma caixa de entrada profissional é a mesma infraestrutura que qualquer agente ambiente precisa para operar confiavelmente em dados não estruturados do mundo real.
Se isso ressoar com você, entre em contato: mehdi@revo.ai