Articles
12. März 2026
Entitätsauflösung ist das Kernproblem bei KI-Agenten
Bei Revo AI entwickeln wir einen umgebenden KI-Agenten auf Basis von E-Mails. Wir haben darüber geschrieben, warum E-Mail das Kaltstartproblem für KI-Agenten löst. Dieser Beitrag handelt vom schwierigsten technischen Problem beim Entwickeln — und warum wir glauben, dass es das schwierigste Problem bei umgebender KI generell ist.
Das Problem, über das niemand spricht, weil es nicht glamourös ist
In der KI-Diskussion geht es um Modelle. Schlussfolgerungsqualität, Kontextfenster, Tool-Nutzung, Inferenzgeschwindigkeit. All das ist wichtig. Nichts davon ist der Grund, warum Produktiv-Agenten tatsächlich versagen.
Agenten scheitern an der Entitätsauflösung.
Dieselbe Person erscheint als Vorname in Slack, als vollständiger Name in einem Vertrag, als E-Mail-Domain in einem Thread, als Firmenname im CRM-Eintrag und als Account-ID in einem Support-Ticket. Ein Agent, der in einem professionellen Kontext arbeitet, sieht all diese Signale und muss entscheiden, ohne zu halluzinieren, ob sie sich auf dieselbe Entität beziehen — und wie diese Entität mit allem anderen zusammenhängt, was er kennt.
Macht er das falsch, versagt der Agent nicht nur leise. Er entwirft eine Antwort mit Formulierungen aus dem falschen Deal. Er folgt beim falschen Kontakt nach. Er verbindet ein vertrauliches Gespräch mit jemandem, der es nicht sehen sollte. Fehler bei der Entitätsauflösung in einem umgebenden Agenten sind keine UX-Probleme. Es sind Beziehungsrisiken und potenzielle Datenschutzverletzungen.
Das ist das Problem, mit dem wir bei Revo AI mehr Zeit verbracht haben als mit allem anderen. Es ist immer noch nicht gelöst — es wird gemanagt. Das haben wir gelernt.
Warum Entitätsauflösung für Agenten strukturell schwieriger ist als für Suche oder CRM
Entitätsauflösung ist kein neues Problem. Suchmaschinen, CRMs und Data Warehouses haben seit Jahren mit verschiedenen Versionen davon zu tun. Aber Agenten stehen aus drei Gründen vor einer schwierigeren Version.
Die Fehlerkosten sind asymmetrisch. Eine falsche Autovervollständigung in einem normalen E-Mail-Client ist nervig. Eine falsche Entitätszuordnung in einem Agenten, der in Ihrem Namen entwirft und sendet, ist ein Beziehungsrisiko. Die Fehlertoleranz ist eine Größenordnung niedriger als bei passiven Tools.
Das Signal ist verrauschter. E-Mail ist informell, inkonsistent und menschlich. Menschen beziehen sich auf dieselbe Entität auf Dutzende verschiedene Arten in Tausenden von Nachrichten. Es gibt kein Schema. Es gibt keine erzwungene Namenskonvention. Der Agent muss Struktur aus unstrukturierten Signalen im großen Maßstab ableiten.
Der Graph ist dynamisch. Entitäten ändern sich. Menschen wechseln Rollen. Unternehmen werden übernommen und Domains ändern sich. Der Entitätsgraph kann nicht einmal erstellt und gecacht werden — er muss sich kontinuierlich aktualisieren, wenn neue Nachrichten eintreffen, und Konflikte markieren, wenn das neue Signal dem widerspricht, was er zu wissen glaubte.
Was wir bei Revo AI tatsächlich gebaut haben
Wir pflegen einen lebenden Entitätsgraphen, der sich mit jeder verarbeiteten Nachricht aktualisiert. Der Graph verbindet Personen, Unternehmen, Deals, Threads und Tools — und löst dieselbe Entität über verschiedene Namenskonventionen und Datenquellen in Echtzeit auf.
Wenn der Graph auf widersprüchliche Signale stößt — zwei Kontakte namens James in derselben Firma, eine Domain, die sich nach einer Übernahme geändert hat, ein Name, der sich plausibel auf zwei verschiedene Personen beziehen könnte — kennzeichnet er die Mehrdeutigkeit, anstatt zu raten. Wir behandeln ungelöste Mehrdeutigkeit als einen erstklassigen Zustand, nicht als einen zu unterdrückenden Fehler.
Das kostet uns Automatisierungsabdeckung. Mehrdeutigkeiten zu kennzeichnen bedeutet, dass einige Aktionen nicht automatisch ausgeführt werden und stattdessen zur menschlichen Überprüfung erscheinen. Wir haben diesen Kompromiss bewusst getroffen. Die Alternative — raten und falsch liegen — erzeugt die Art von Fehler, die Nutzer dazu bringt, einen Agenten dauerhaft abzuschalten.
Entitätsauflösung muss auch innerhalb strenger Datenschutzgrenzen erfolgen. Ein Agent, der einen professionellen Posteingang liest, hat Zugriff auf sensible Informationen über Kunden, Deals, Teams und Organisationsebenen hinweg. Der Entitätsgraph muss nicht nur wissen, wie Entitäten verbunden sind, sondern auch was der Agent verbinden darf. Zugriffskontrolle auf Domain-Ebene ist keine optionale Infrastruktur — sie ist ein zentraler Teil der Auflösungslogik. Entitätsauflösung ohne Datenschutzkontrollen ist eine Haftung, kein Feature.
Was umgebende KI tatsächlich tut, wenn sie funktioniert
Die meisten umgebenden KI-Produkte starben in der Lücke zwischen "technisch korrekt" und "vertrauenswürdig". Der schwierige Teil ist nicht, einen Agenten zu bauen, der handeln kann — es ist, einen zu bauen, der weiß, wann er nicht handeln sollte.
So sieht ein Dienstagmorgen aus, wenn die Entitätsauflösung funktioniert:
8:14 Uhr. "Lisa Chen hat die IP-Klausel im Meridian-Vertrag markiert. Antwortenentwurf bereit mit Ihren Standard-Formulierungen aus dem Acme-Deal."
8:22 Uhr. "Keine Antwort von James Park zum Q2-Budget (5 Tage). Follow-up entworfen."
9:01 Uhr. "Sarah erwähnte, dass die Migration abgeschlossen ist. Drei Kunden-Tickets beziehen sich auf diesen Bug. Updates entworfen."
Jedes davon: akzeptieren, ablehnen oder Feedback geben. Das ist die gesamte Interaktionsfläche. Der Agent plant die Arbeit. Der Nutzer kontrolliert das Ergebnis.
Die UX-Konsequenz: Vertrauen wird schrittweise erworben
Wir haben den Revo AI-Agenten so konzipiert, dass er eng beginnt und sich zu breiteren Aktionen hocharbeitet. Am ersten Tag zeigt er einfache Dinge: ein vergessenes Follow-up, einen Entwurf für eine ausstehende Antwort, einen markierten Konflikt. Akzeptieren oder verwerfen. Keine Konfiguration, kein Prompting, kein Handbuch.
Das war nicht das ursprüngliche Design. Es war eine Reaktion darauf, dass wir sahen, wie frühe Nutzer einen Agenten abschalteten, der technisch korrekt war, aber schneller handelte, als sie bereit waren zu vertrauen. Progressive Offenlegung ist nicht nur ein UX-Muster — es ist, wie man Nutzern genug Zeit gibt, zu verifizieren, dass die Entitätsauflösung funktioniert, bevor der Agent beginnt, risikoreichere Aktionen durchzuführen.
Was das für die Agenten-Infrastruktur bedeutet
Entitätsauflösung ist Infrastruktur, kein Feature. Es ist die Schicht, die bestimmt, ob einem KI-Agenten, der in echtem professionellen Kontext arbeitet, vertraut werden kann zu handeln — oder ob es eine ausgefeilte Demo ist, die zusammenbricht, sobald die Daten unordentlich werden.
Die meisten Agenten-Frameworks behandeln es als Randfall. Das ist es nicht. Es ist das Kernproblem. Die Agenten, die langfristig genutzt werden, werden diejenigen sein, die es mit der richtigen Kombination aus Graph-Architektur, Mehrdeutigkeitsbehandlung, Datenschutzkontrollen und Vertrauensaufbau lösen — nicht diejenigen mit der besten Inferenz.
E-Mail ist die schwierigste Umgebung für die Entitätsauflösung, weil die Daten am unordentlichsten sind und die Fehlertoleranz am niedrigsten ist. Deshalb generalisiert die Lösung für E-Mail auch. Die Infrastruktur, die wir bei Revo AI für die Auflösung von Entitäten in einem professionellen Posteingang gebaut haben, ist dieselbe Infrastruktur, die jeder umgebende Agent benötigt, um zuverlässig mit unstrukturierten realen Daten zu arbeiten.
Falls das bei Ihnen Anklang findet, melden Sie sich: mehdi@revo.ai

