
How we scaled our customer interview process with ElevenLabs Agents
We used ElevenLabs Agents to interview over 230 users of our ElevenReader app in 24 Hours.


Eine gut strukturierte und zuverlässige Wissensbasis ist entscheidend, damit Sprachagenten genaue, konsistente und unternehmensgerechte Antworten in Mitarbeiter- und Kundeninteraktionen liefern können.
Wenn Organisationen
Agenten-Wissensbasen bieten diese Grundlage und Spezialisierung. Sie speichern Dokumentationen, Richtlinien, technische Referenzen, Produktspezifikationen, Unterstützungsmaterialien und andere interne Ressourcen. Für eine effektive Nutzung muss der Inhalt kuratiert, organisiert und strukturiert werden, damit Agenten genaue und fundierte Antworten geben können, anstatt sich auf allgemeines Modellwissen zu verlassen, das unvollständig oder veraltet sein könnte.
Dieser Leitfaden stellt praktische Strategien für das Management von Unternehmenswissensbasen in Agentenbereitstellungen vor, die es Sprachagenten ermöglichen, konsistent zu arbeiten, selbst bei großen, vielfältigen Dokumentensammlungen.
Sie können eine Wissensbasis direkt auf der ElevenLabs Agents-Plattform konfigurieren. Dieser Inhalt wird Ihrem Agenten während der Gespräche zur Verfügung gestellt.
Die Plattform bietet zwei Modi, wie dieser Inhalt genutzt wird:
Die Entscheidung zwischen direkter Einbindung und RAG hängt in erster Linie von der Größe der Wissensbasis ab.
Betrachten Sie eine "Produktanleitung-Bibliothek" mit 1000 Dokumenten, die insgesamt etwa 2 Millionen Wörter umfassen (~2,6 Millionen Tokens). In diesem Fall überschreitet die direkte Einbindung die Kontextgrenzen der meisten schnellen LLMs und RAG wird aktiviert. Daher werden nur relevante Ausschnitte abgerufen, um den Kontext unabhängig von der Gesamtgröße der Wissensbasis überschaubar zu halten.
Umgekehrt ist bei einem 4-seitigen Richtliniendokument (~3.000 Tokens) die direkte Einbindung schneller und einfacher. RAG würde unnötige Latenz hinzufügen.
Die ElevenLabs-Plattform handhabt dies automatisch: Die Option zur Aktivierung von RAG wird erst verfügbar, wenn Ihre Wissensbasis eine Größe erreicht, bei der das Abrufen effizienter wäre als die direkte Einbindung.
Wenn ein Unternehmen über eine große und vielfältige interne Dokumentenbasis verfügt, ist der erste Schritt nicht die Implementierung, sondern die Kuration. Hervorragende Quellen liefern hervorragende Antworten, während schlechte Quellen Fehler und Halluzinationen einführen.
Kurieren Sie, bevor Sie implementieren. Archivieren oder entfernen Sie veraltete Entwürfe, überholte Versionen und irrelevante Materialien. Wenn ein Dokument nicht zur Beantwortung von Kundenfragen verwendet werden sollte, sollte es nicht in Ihrer Wissensbasis sein. Diese Kuration stellt sicher, dass die Informationsquelle zuverlässig bleibt und reduziert das Rauschen während des Abrufs.
Nach Domänen organisieren. Strukturieren Sie die verbleibenden Dokumente in eindeutige, logische Kategorien wie HR-Richtlinien, Produktdokumentation, rechtliche Vereinbarungen, technische Handbücher oder Kundenunterstützungsverfahren. Diese Domänenorganisation wird entscheidend bei der Implementierung von Multi-Agent-Workflows auf der ElevenLabs-Plattform, wo spezialisierte Agenten spezifische Wissensbereiche bearbeiten.
Qualität vor Quantität. Eine gut kuratierte Sammlung von wenigen hochwertigen Dokumenten wird eine große Anzahl von gemischten Qualitätsdateien übertreffen. Konzentrieren Sie sich auf Vollständigkeit, Genauigkeit und Relevanz innerhalb jeder Domäne. Der Beginn mit sauberen, organisierten Daten ist nicht nur Best Practice, sondern der Unterschied zwischen einem Agenten, der Benutzer begeistert, und einem, der sie mit irrelevanten oder widersprüchlichen Antworten frustriert.
Sobald Sie Wissens- und Zugriffsmuster haben, stellt sich die nächste Frage, wie Sie Ihre Agentenarchitektur einrichten, um effektiv auf die Wissensbasis zuzugreifen. Organisationen können aus fünf architektonischen Ansätzen wählen, die direkt auf der ElevenLabs Agents-Plattform implementiert werden können, von einfachen bis zu komplexen Konfigurationen basierend auf Wissensumfang und Anforderungen.
1. Einzel-Agent-Wissensbasis
Die einfachste Implementierung verbindet eine Wissensbasis direkt mit einem einzelnen Agenten. Laden Sie Ihre kuratierten Dokumente auf die ElevenLabs-Agentenplattform hoch, um eine Wissensbasis zu erstellen und sie Ihrem Agenten in den Konfigurationseinstellungen zuzuweisen. Keine Workflows, Routing oder externen Tools erforderlich. Dieser Ansatz bietet die schnellste Wertschöpfung - ideal für fokussierte Anwendungsfälle wie nur HR-Richtlinien, nur Produktdokumentation oder Kundensupport für eine einzelne Produktlinie.
Einschränkungen treten im großen Maßstab auf. Die Leistung kann bei sehr großen oder stark diversifizierten Wissensbasen abnehmen. Ohne Spezialisierung durchsucht der Agent alle Dokumente und ruft möglicherweise weniger relevante Ergebnisse ab, wenn das Wissen sehr unterschiedliche Themen umfasst. Wenn Sie feststellen, dass die Genauigkeit aufgrund der Vielfalt der Wissensbasis abnimmt, ist es an der Zeit, zu Multi-Agent-Workflows überzugehen.
2. Multi-Agent-Wissenssegregation
Für große, vielfältige Dokumentensammlungen bietet eine Multi-Agent-Workflow-Architektur effizientes Skalieren. Ein Orchestrierungsagent analysiert eingehende Fragen und leitet sie an spezialisierte Agenten weiter, die jeweils über eine fokussierte Wissensbasis für ihre Domäne verfügen. Wenn ein Benutzer fragt: "Wie lautet die Elternzeitregelung in Kalifornien?", identifiziert das System dies als HR-bezogen und leitet es an einen auf HR spezialisierten Agenten weiter, der nur auf HR-Dokumente zugreift.
Die Implementierung umfasst das Erstellen separater Wissensbasen pro Domäne, den Aufbau eines Workflows mit spezialisierten Knoten und die Konfiguration von Routing-Bedingungen. Kleinere, fokussierte Kontexte verbessern die Genauigkeit und reduzieren die Latenz, während die Domänentrennung die Wartung vereinfacht, da jeder Bereich unabhängig aktualisiert wird. Der Ansatz eignet sich für Unternehmen, die Agenten in mehreren Fachgebieten einsetzen.
3. Hybridansatz: Wissensbasis für Entdeckung, Tools für Daten
Dieses Muster trennt das Verständnis von der Suche. Die Wissensbasis identifiziert Terminologie und ordnet sie Systemkennungen zu, die als Dokument zur Wissensbasis hinzugefügt werden, während Webhook-Tools aktuelle Daten aus autoritativen Quellen abrufen.
Wenn beispielsweise gefragt wird: "Was sind die Details meines Premium Plus-Plans?", verwendet der Agent seine Wissensbasis, um die Plan-ID PLAN_001 zu identifizieren, und ruft dann ein Tool auf, das Ihre Live-Datenbank nach aktuellen Preisen und Funktionen abfragt.
Dies garantiert Genauigkeit, da Fakten aus Datenbanken statt aus LLM-Generierung stammen, bietet Echtzeitdaten, die den aktuellen Stand widerspiegeln, und erstellt Prüfpfade durch protokollierte Toolaufrufe. Es passt zu Fällen, die sowohl Dokumentationsverständnis als auch strukturierte Datenabfrage erfordern, häufig im Kundensupport, Kontoverwaltung und E-Commerce, wo Dokumente Konzepte erklären, aber Datenbanken aktuelle Fakten enthalten.
4. Externe Vektordatenbank
Organisationen können ihre eigene Vektordatenbank (Pinecone, Weaviate, Qdrant) verwalten und über benutzerdefinierte Webhook-Tools bereitstellen. Dies bietet vollständige Kontrolle über Chunking, Einbettungen und Abrufalgorithmen, führt jedoch zu betrieblichem Aufwand durch Infrastrukturmanagement und zusätzlicher Latenz durch externe API-Aufrufe. Dies kann Flexibilität hinzufügen, aber auch betrieblichen Aufwand und externe Latenz einführen.
5. Die Dual-Brain-Architektur
Einige Unternehmen pflegen bereits ihre eigenen (fein abgestimmten) LLMs, und der effektivste Weg, sie zu verbinden, ist mit einer ElevenLabs-Agentenplattform direkt (benutzerdefiniertes LLM) oder durch eine Dual-Brain-Architektur.
Dual-Brain-Architekturen (zwei aktive LLMs) werden typischerweise verwendet, wenn das benutzerdefinierte LLM zu langsam ist, um ein Echtzeitgespräch zu ermöglichen. In diesen Fällen, in denen tiefere Überlegungen / zusätzlicher Kontext erforderlich sind, wird der Agent von einem schnelleren LLM betrieben, das das Kunden-LLM des Kunden für Eingaben aufrufen kann, die dann durch kontextuelle Updates in das Gespräch eingebracht werden.
Da diese Aufrufe asynchron sind, bleibt das Gespräch flüssig, während das Backend schwerere Berechnungen durchführt. Dieser Ansatz ermöglicht es Unternehmen, auf ihrer bestehenden KI-Infrastruktur aufzubauen.
Effektive Sprachagenten basieren auf klarem, gut organisiertem Wissen. Wenn Unternehmensinformationen strukturiert, genau und für Agenten leicht navigierbar sind, werden sie zu einer verlässlichen Quelle, aus der sie fundierte und konsistente Agentenantworten liefern können.
Die ElevenLabs-Plattform bietet natives Wissensmanagement, Multi-Agent-Workflows, Webhook-Integration und umfassende APIs, die nahtlos zusammenarbeiten. Wenn sie durchdacht mit sauberen Daten und geeigneter Architektur implementiert werden, wird Unternehmenswissen durch natürliche Gespräche zugänglich. Gut gemacht, ist dies nicht nur ein Implementierungsdetail, sondern ein operativer Vorteil.
Konsolidieren Sie vor dem Hochladen.Anstatt 500 einzelne Dateien hochzuladen, fassen Sie alle Dokumente aus einer Domäne in einer einzigen Datei zusammen. Dies reduziert die Verwaltungskomplexität, vereinfacht die Agentenkonfiguration und verbessert den Abruf, indem verwandte Inhalte zusammengehalten werden.
Dokumente strategisch gruppieren nach Produktlinie, Region, Abteilung oder Funktion. Jede konsolidierte Wissensbasis wird einem Agenten (Einzel-Agent) oder einem spezialisierten Agentenknoten (Multi-Agent-Workflows) zugeordnet.
Nutzen Sie die ElevenLabs API um Inhalte von URLs, Text oder Dateien hochzuladen. Integrieren Sie Uploads in Ihre CI/CD-Pipeline, damit Konsolidierung und Updates automatisch erfolgen, wann immer sich die Quelldokumentation ändert.
Überwachen Sie Ihre Dokumentations-Repositories(Git, SharePoint, CMS). Wenn Änderungen erkannt werden, lösen Sie eine automatisierte Nachbearbeitung aus, um aktualisierte Dokumente zu konsolidieren.
Verwenden Sie die API, um Wissensbasen programmgesteuert zu aktualisieren. Ein typischer Workflow: Dokumentationsaktualisierung → CI/CD-Pipeline ausgelöst → Dokumente konsolidiert → API aufgerufen, um Wissensbasis zu ersetzen → Agenten greifen sofort auf aktualisierte Informationen zu.
Behandeln Sie Dokumentation wie Code. Wenden Sie die gleiche DevOps-Strenge auf Wissensbasis-Updates an wie auf Code-Deployments. Die API-First-Architektur der Plattform erleichtert die Integration in bestehende Pipelines und gewährleistet Genauigkeit und Compliance ohne manuelle Eingriffe.

We used ElevenLabs Agents to interview over 230 users of our ElevenReader app in 24 Hours.

Enabling cinematic storytelling with Text to Speech and Music
Bereitgestellt von ElevenLabs Agenten