Articles
12 de marzo de 2026
La resolución de entidades es el problema central en agentes IA
En Revo AI estamos construyendo un agente IA ambiental sobre el correo electrónico. Escribimos sobre por qué el email resuelve el problema del arranque en frío para los agentes IA. Este artículo trata sobre el problema de ingeniería más difícil que encontramos al construirlo, y por qué creemos que es el problema más difícil en la IA ambiental en general.
El problema del que nadie habla porque no es glamuroso
La conversación sobre IA gira en torno a los modelos. Calidad del razonamiento, ventanas de contexto, uso de herramientas, velocidad de inferencia. Todo eso importa. Nada de eso es donde los agentes en producción realmente fallan.
Los agentes fallan en la resolución de entidades.
La misma persona aparece como un nombre en Slack, un nombre completo en un contrato, un dominio de email en un hilo, un nombre de empresa en un registro CRM y un ID de cuenta en un ticket de soporte. Un agente operando en un contexto profesional ve todas estas señales y tiene que decidir, sin alucinar, si se refieren a la misma entidad, y cuál es la relación de esa entidad con todo lo demás que conoce.
Si esto sale mal, el agente no solo falla silenciosamente. Redacta una respuesta usando lenguaje del trato equivocado. Hace seguimiento con el contacto equivocado. Conecta una conversación sensible con alguien que no debería verla. Los fallos en la resolución de entidades en un agente ambiental no son problemas de UX. Son riesgos de relaciones y posibles violaciones de privacidad.
Este es el problema en el que pasamos más tiempo que en cualquier otra cosa en Revo AI. Todavía no está resuelto, está gestionado. Esto es lo que aprendimos.
Por qué la resolución de entidades es estructuralmente más difícil para agentes que para búsquedas o CRM
La resolución de entidades no es un problema nuevo. Los motores de búsqueda, CRM y almacenes de datos han lidiado con versiones de este problema durante años. Pero los agentes enfrentan una versión más difícil por tres razones.
El costo del error es asimétrico. Un autocompletado incorrecto en un cliente de email normal es molesto. Una coincidencia de entidad incorrecta en un agente que redacta y envía en tu nombre es un riesgo para las relaciones. La tolerancia al error es un orden de magnitud menor que en herramientas pasivas.
La señal es más ruidosa. El email es informal, inconsistente y humano. Las personas se refieren a la misma entidad de docenas de formas diferentes a través de miles de mensajes. No hay esquema. No hay convención de nomenclatura forzada. El agente tiene que inferir estructura a partir de señales no estructuradas a escala.
El grafo es dinámico. Las entidades cambian. Las personas cambian de roles. Las empresas son adquiridas y los dominios cambian. El grafo de entidades no puede construirse una vez y guardarse en caché; tiene que actualizarse continuamente a medida que llegan nuevos mensajes y señalar conflictos cuando la nueva señal contradice lo que creía saber.
Lo que realmente construimos en Revo AI
Mantenemos un grafo de entidades vivo que se actualiza con cada mensaje procesado. El grafo conecta personas, empresas, tratos, hilos y herramientas, resolviendo la misma entidad a través de diferentes convenciones de nomenclatura y fuentes de datos en tiempo real.
Cuando el grafo encuentra señales conflictivas —dos contactos llamados James en la misma empresa, un dominio que cambió después de una adquisición, un nombre que podría referirse plausiblemente a dos personas diferentes— señala la ambigüedad en lugar de adivinar. Tratamos la ambigüedad sin resolver como un estado de primera clase, no como un error para suprimir.
Eso nos cuesta cobertura de automatización. Señalar ambigüedad significa que algunas acciones no se toman automáticamente y aparecen para revisión humana en su lugar. Hicimos ese compromiso deliberadamente. La alternativa —adivinar y estar equivocado— produce el tipo de fallo que hace que los usuarios apaguen un agente permanentemente.
La resolución de entidades también tiene que ocurrir dentro de límites estrictos de privacidad. Un agente leyendo una bandeja de entrada profesional tiene acceso a información sensible a través de clientes, tratos, equipos y capas organizacionales. El grafo de entidades necesita saber no solo cómo están conectadas las entidades sino qué está permitido conectar el agente. El control de acceso a nivel de dominio no es infraestructura opcional, es una parte central de la lógica de resolución. La resolución de entidades sin controles de privacidad es una responsabilidad, no una característica.
Lo que realmente hace la IA ambiental cuando funciona
La mayoría de los productos de IA ambiental murieron en la brecha entre "técnicamente correcto" y "confiable". La parte difícil no es construir un agente que pueda actuar, es construir uno que sepa cuándo no actuar.
Así es como se ve un martes por la mañana cuando la resolución de entidades está funcionando:
8:14 AM. "Lisa Chen señaló la cláusula de IP en el contrato de Meridian. Respuesta redactada usando tu lenguaje estándar del trato de Acme."
8:22 AM. "Sin respuesta de James Park sobre el presupuesto Q2 (5 días). Seguimiento redactado."
9:01 AM. "Sarah mencionó que la migración terminó. Tres tickets de clientes hacen referencia a ese bug. Actualizaciones redactadas."
Cada una: aceptar, rechazar o dar feedback. Esa es toda la superficie de interacción. El agente planificó el trabajo. El usuario gobierna el resultado.
La consecuencia UX: la confianza se gana incrementalmente
Diseñamos el agente de Revo AI para comenzar de forma limitada y ganarse el camino hacia acciones más amplias. En el día uno muestra cosas simples: un seguimiento olvidado, un borrador para una respuesta pendiente, un conflicto señalado. Aceptar o descartar. Sin configuración, sin prompts, sin manual.
Este no era el diseño original. Fue una respuesta a observar a los primeros usuarios apagar un agente que era técnicamente correcto pero se movía más rápido de lo que estaban listos para confiar. La divulgación progresiva no es solo un patrón de UX, es cómo le das a los usuarios suficiente tiempo para verificar que la resolución de entidades está funcionando antes de que el agente comience a tomar acciones de mayor riesgo.
Lo que esto significa para la infraestructura de agentes
La resolución de entidades es infraestructura, no una característica. Es la capa que determina si se puede confiar en que un agente IA operando en un contexto profesional real actúe, o si es una demostración sofisticada que se rompe en el momento en que los datos se vuelven desordenados.
La mayoría de los frameworks de agentes lo tratan como un caso extremo. No lo es. Es el problema central. Los agentes que ganen uso a largo plazo serán los que lo resuelvan con la combinación correcta de arquitectura de grafo, manejo de ambigüedad, controles de privacidad y ritmo de confianza, no los que tengan la mejor inferencia.
El email es el entorno más difícil para resolver la resolución de entidades, porque los datos son los más desordenados y la tolerancia al error es la más baja. Por eso también es que resolverlo en email se generaliza. La infraestructura que construimos en Revo AI para resolver entidades a través de una bandeja de entrada profesional es la misma infraestructura que cualquier agente ambiental necesita para operar confiablemente en datos no estructurados del mundo real.
Si esto resuena contigo, contáctanos: mehdi@revo.ai