
How we scaled our customer interview process with ElevenLabs Agents
We used ElevenLabs Agents to interview over 230 users of our ElevenReader app in 24 Hours.


Une base de connaissances bien structurée et fiable est essentielle pour que les agents vocaux fournissent des réponses précises, cohérentes et alignées avec l'entreprise lors des interactions avec les employés et les clients.
À mesure que les organisations adoptent
Les bases de connaissances des agents fournissent cette fondation et spécialisation. Elles stockent la documentation, les politiques, les références techniques, les spécifications des produits, les supports de support et d'autres ressources internes. Pour une utilisation efficace, le contenu doit être sélectionné, organisé et structuré afin que les agents puissent produire des réponses précises et fondées au lieu de s'appuyer sur des connaissances générales du modèle qui peuvent être incomplètes ou obsolètes.
Ce guide présente des stratégies pratiques pour gérer les bases de connaissances d'entreprise dans les déploiements d'agents, permettant aux agents vocaux de fonctionner de manière cohérente même lorsqu'ils traitent de grandes collections de documents diversifiées.
Vous pouvez configurer une base de connaissances directement sur la plateforme ElevenLabs Agents. Ce contenu devient disponible pour votre agent lors des conversations.
La plateforme offre deux modes d'utilisation de ce contenu :
La décision entre injection directe et RAG dépend principalement de la taille de la base de connaissances.
Considérez une "Bibliothèque de manuels produits" avec 1000 documents totalisant environ 2 millions de mots (~2,6 millions de tokens). Dans ce cas, l'injection directe dépasse les limites de contexte de la plupart des LLM rapides et RAG est activé. Par conséquent, seuls les extraits pertinents sont récupérés, gardant le contexte gérable quelle que soit la taille totale de la base de connaissances.
Inversement, pour un document de politique de 4 pages (~3 000 tokens), l'injection directe est plus rapide et plus simple. RAG ajouterait une latence inutile.
La plateforme ElevenLabs gère cela automatiquement : L'option d'activer RAG ne devient disponible que lorsque votre base de connaissances atteint une taille où la récupération serait plus efficace que l'inclusion directe.
Si une entreprise dispose d'une base de documents internes large et variée, la première étape n'est pas la mise en œuvre, c'est la curation. D'excellentes sources produisent d'excellentes réponses, tandis que de mauvaises sources introduisent des erreurs et des hallucinations.
Curatez avant de mettre en œuvre. Archivez ou supprimez les brouillons obsolètes, les versions remplacées et les matériaux non pertinents. Si un document ne doit pas être utilisé pour répondre aux questions des clients, il ne doit pas être dans votre base de connaissances. Cette curation garantit que la source d'information reste fiable et réduit le bruit lors de la récupération.
Organisez par domaine. Structurez les documents restants en catégories distinctes et logiques telles que les politiques RH, la documentation produit, les accords juridiques, les manuels techniques ou les procédures de support client. Cette organisation par domaine devient critique lors de la mise en œuvre de workflows multi-agents sur la plateforme ElevenLabs, où des agents spécialisés gèrent des domaines de connaissances spécifiques.
Qualité plutôt que quantité. Une collection bien sélectionnée de quelques documents de haute qualité surpassera un grand nombre de fichiers de qualité mixte. Concentrez-vous sur l'exhaustivité, la précision et la pertinence dans chaque domaine. Commencer avec des données propres et organisées n'est pas seulement une bonne pratique, c'est la différence entre un agent qui ravit les utilisateurs et un autre qui les frustre avec des réponses non pertinentes ou contradictoires.
Une fois que vous avez des connaissances et des schémas d'accès, la question suivante est de savoir comment configurer l'architecture de votre agent pour accéder efficacement à la base de connaissances. Les organisations peuvent choisir parmi cinq approches architecturales qui peuvent être mises en œuvre directement sur la plateforme ElevenLabs Agents, progressant de configurations simples à complexes en fonction de l'échelle des connaissances et des exigences.
1. Base de connaissances à agent unique
La mise en œuvre la plus simple attache une base de connaissances directement à un seul agent. Téléchargez vos documents sélectionnés sur la plateforme ElevenLabs Agent pour créer une base de connaissances et l'attribuer à votre agent dans les paramètres de configuration. Aucun workflow, routage ou outil externe requis. Cette approche offre le délai de mise en œuvre le plus rapide - elle est idéale pour des cas d'utilisation ciblés tels que les politiques RH uniquement, la documentation produit uniquement ou le support client pour une seule ligne de produits.
Des limitations apparaissent à grande échelle. La performance peut se dégrader avec des bases de connaissances très grandes ou très diversifiées. Sans spécialisation, l'agent recherche dans tous les documents, récupérant potentiellement des résultats moins pertinents lorsque les connaissances couvrent des sujets très différents. Lorsque vous remarquez une baisse de précision due à la diversité de la base de connaissances, il est temps d'évoluer vers des workflows multi-agents.
2. Segmentation des connaissances multi-agents
Pour les collections de documents grandes et variées, une architecture de workflow multi-agents offre une mise à l'échelle efficace. Un agent d'orchestration analyse les questions entrantes et les dirige vers des agents spécialisés, chacun avec une base de connaissances axée sur leur domaine. Lorsqu'un utilisateur demande "Quelle est la politique de congé parental en Californie ?", le système identifie cela comme lié aux RH et le dirige vers un agent spécialisé RH avec accès uniquement aux documents RH.
La mise en œuvre implique de créer des bases de connaissances séparées par domaine, de construire un workflow avec des nœuds spécialisés et de configurer des conditions de routage. Des contextes plus petits et ciblés améliorent la précision et réduisent la latence, tandis que la séparation des domaines simplifie la maintenance puisque chaque domaine est mis à jour indépendamment. L'approche convient aux entreprises déployant des agents couvrant plusieurs domaines de connaissances.
3. Approche hybride : base de connaissances pour la découverte, outils pour les données
Ce modèle sépare la compréhension de la recherche. La base de connaissances identifie la terminologie et la mappe aux identifiants système ajoutés comme document à la base de connaissances, tandis que les outils webhook récupèrent les données actuelles à partir de sources autorisées.
Par exemple, lorsqu'on demande "Quels sont les détails de mon plan Premium Plus ?", l'agent utilise sa base de connaissances pour identifier l'ID du plan PLAN_001, puis appelle un outil qui interroge votre base de données en direct pour obtenir les prix et fonctionnalités actuels.
Cela garantit l'exactitude puisque les faits proviennent des bases de données plutôt que de la génération LLM, fournit des données en temps réel reflétant l'état actuel et crée des pistes d'audit grâce aux appels d'outils enregistrés. Cela convient aux cas nécessitant à la fois une compréhension de la documentation et une récupération de données structurées, courants dans le support client, la gestion de comptes et le commerce électronique où les documents expliquent les concepts mais les bases de données contiennent les faits actuels.
4. Base de données vectorielle externe
Les organisations peuvent gérer leur propre base de données vectorielle (Pinecone, Weaviate, Qdrant) et l'exposer via des outils webhook personnalisés. Cela offre un contrôle complet sur le découpage, les embeddings et les algorithmes de récupération mais introduit une surcharge opérationnelle due à la gestion de l'infrastructure et une latence supplémentaire due aux appels API externes. Cela peut ajouter de la flexibilité mais introduit également une surcharge opérationnelle et une latence externe.
5. L'architecture à double cerveau
Certaines entreprises maintiennent déjà leurs propres LLM (finement ajustés), et le moyen le plus efficace de les connecter est avec une plateforme ElevenLabs Agent directement (LLM personnalisé) ou via une architecture à double cerveau.
L'architecture à double cerveau (deux LLM actifs) est généralement utilisée dans les cas où le LLM personnalisé est trop lent pour faciliter une conversation en temps réel. Dans ces cas où un raisonnement plus profond / un contexte supplémentaire est requis, l'agent est alimenté par un LLM plus rapide qui peut appeler le LLM client pour obtenir des informations, qui sont ensuite ajoutées à la conversation via des mises à jour contextuelles.
Comme ces appels sont asynchrones, la conversation reste fluide tandis que l'arrière-plan effectue des calculs plus lourds. Cette approche permet aux entreprises de s'appuyer sur leur infrastructure IA existante.
Les agents vocaux efficaces s'appuient sur des connaissances claires et bien organisées. Lorsque les informations d'entreprise sont structurées, précises et faciles à naviguer pour les agents, elles deviennent une source fiable sur laquelle ils peuvent s'appuyer pour fournir des réponses fondées et cohérentes.
La plateforme ElevenLabs offre une gestion native des bases de connaissances, des workflows multi-agents, une intégration webhook et des API complètes conçues pour fonctionner ensemble de manière transparente. Lorsqu'elles sont mises en œuvre de manière réfléchie avec des données propres et une architecture appropriée, l'expertise de l'entreprise devient accessible par une conversation naturelle. Bien fait, ce n'est pas juste un détail de mise en œuvre, c'est un avantage opérationnel.
Consolidez avant de télécharger.Au lieu de télécharger 500 fichiers individuels, fusionnez tous les documents d'un domaine en un seul fichier. Cela réduit la complexité de gestion, simplifie la configuration de l'agent et améliore la récupération en gardant le contenu lié ensemble.
Groupez les documents stratégiquement par ligne de produit, région, département ou fonction. Chaque base de connaissances consolidée correspond à un agent (agent unique) ou à un nœud d'agent spécialisé (workflows multi-agents).
Exploitez l'API ElevenLabs pour télécharger du contenu à partir d'URLs, de texte ou de fichiers. Intégrez les téléchargements dans votre pipeline CI/CD afin que la consolidation et les mises à jour se fassent automatiquement chaque fois que la documentation source change.
Surveillez vos dépôts de documentation(Git, SharePoint, CMS). Lorsque des changements sont détectés, déclenchez un retraitement automatisé pour consolider les documents mis à jour.
Utilisez l'API pour mettre à jour les bases de connaissances de manière programmatique. Un workflow typique : mise à jour de la documentation → pipeline CI/CD déclenché → documents consolidés → API appelée pour remplacer la base de connaissances → les agents accèdent instantanément aux informations mises à jour.
Traitez la documentation comme du code. Appliquez la même rigueur DevOps aux mises à jour des bases de connaissances qu'aux déploiements de code. L'architecture API-first de la plateforme facilite l'intégration avec les pipelines existants, maintenant l'exactitude et la conformité sans intervention manuelle.

We used ElevenLabs Agents to interview over 230 users of our ElevenReader app in 24 Hours.

Enabling cinematic storytelling with Text to Speech and Music
Propulsé par ElevenLabs Agents