
Comment ElevenLabs se Prépare pour les Élections de 2024
- Catégorie
- Sécurité
- Date
Les agents vocaux IA sont de plus en plus utilisés dans le service client, le divertissement et les applications en entreprise. Ce changement nécessite des garde-fous clairs pour garantir une utilisation responsable.
Notre cadre de sécurité propose une approche en plusieurs niveaux couvrant les garde-fous en amont, les mécanismes d’application pendant la conversation et la surveillance continue. Ensemble, ces éléments permettent d’assurer un comportement responsable de l’IA, la sensibilisation des utilisateurs et le respect des garde-fous tout au long du cycle de vie de l’agent vocal.
Remarque : Ce cadre n’inclut pas les mesures de confidentialité et de sécurité pour les agents compatibles MCP.
Les utilisateurs doivent toujours être informés qu’ils parlent à un agent vocal IA dès le début de la conversation.
Bonne pratique : annoncer l’utilisation de l’IA dès le début de la conversation.
Les garde-fous définissent les limites du comportement d’un agent vocal IA. Ils doivent être alignés sur les politiques internes de sécurité et couvrir :
Conseil de mise en œuvre : ajouter des garde-fous complets dans le prompt système.
Voir : guide de prompting
Les agents doivent être programmés pour quitter la conversation en toute sécurité lorsque les garde-fous sont remis en cause à plusieurs reprises.
Exemple de réponse :
L’agent utilise alors l’outil fin_appel ou transférer_à_un_agent. Cela permet de faire respecter les limites sans débat ni escalade.
Des critères d’évaluation généraux au niveau de l’agent vous permettent de vérifier si votre agent vocal IA agit de façon sûre, éthique et conforme aux garde-fous du prompt système. Avec l’approche LLM-as-a-judge, chaque appel est automatiquement analysé et classé comme réussi ou non selon des attentes comportementales clés. Cela permet une surveillance continue pendant les tests et devient essentiel une fois l’agent en production.
L’évaluation de la sécurité se concentre sur des objectifs globaux issus de vos garde-fous, comme :
Ces critères sont appliqués de façon uniforme à tous les appels pour garantir un comportement cohérent. Le système surveille chaque interaction, signale les écarts et fournit une explication pour chaque classification. Les résultats sont visibles sur le tableau de bord d’accueil, ce qui permet aux équipes de suivre la sécurité et d’identifier les tendances ou les problèmes récurrents au fil du temps.
Voir : documentation sur l’évaluation du succès
Avant la mise en service, simulez des conversations avec votre agent vocal IA pour tester son comportement face aux attentes de sécurité, de personnalité et de conformité. Le red teaming consiste à créer des cas de simulation qui testent volontairement les garde-fous de l’agent, afin de révéler les cas limites, faiblesses et réponses inattendues. Chaque simulation associe un prompt utilisateur fictif à des critères d’évaluation précis. L’objectif est d’observer la réaction de l’agent dans chaque scénario et de vérifier qu’il respecte votre prompt système à l’aide de critères personnalisés et de l’approche LLM-as-a-judge.
Vous pouvez configurer ces tests avec le SDK simulation de conversation d’ElevenLabs, en scriptant les échanges utilisateur-agent avec des prompts d’évaluation personnalisés. Cela permet de s’assurer que les agents sont prêts pour la production, alignés sur vos standards de sécurité internes et maintiennent l’intégrité de la sécurité sur toutes les versions.
Exemple de simulation :
Les simulations de red teaming peuvent être standardisées et réutilisées pour différents agents, versions et cas d’usage, ce qui permet de garantir le respect des attentes de sécurité à grande échelle.
Voir : bonnes pratiques de test
La modération en direct au niveau des messages pour ConvAI peut être activée au niveau de l’espace de travail pour tous les agents et l’est par défaut dans certains cas. Lorsqu’elle est activée, le système mettra automatiquement fin à l’appel s’il détecte que l’agent s’apprête à dire quelque chose d’interdit (détection basée sur le texte). Actuellement, seuls les contenus sexuels impliquant des mineurs (SCIM) sont bloqués, mais le périmètre de modération peut être élargi selon les besoins du client. Cette fonctionnalité ajoute une latence minimale : p50 : 0 ms, p90 : 250 ms, p95 : 450 ms.
Nous pouvons collaborer avec les clients pour définir le périmètre de modération adapté et fournir des analyses pour ajuster la sécurité en continu. Par exemple : end_call_reason
Pour valider la sécurité avant la production, nous recommandons une approche par étapes :
Ce processus structuré garantit que les agents sont testés, ajustés et validés selon des standards clairs avant d’atteindre les utilisateurs finaux. Il est conseillé de définir des seuils de qualité (par exemple, taux minimum de réussite des appels) à chaque étape.
Un agent vocal IA sûr nécessite des garde-fous à chaque étape du cycle de vie :
En appliquant ce cadre en plusieurs niveaux, les organisations peuvent garantir un comportement responsable, rester conformes et instaurer la confiance avec les utilisateurs.



