Sécurité
Sécurité
L’audio IA conçu pour ouvrir de nouvelles possibilités et avoir un impact positif, guidé par la responsabilité et des protections qui empêchent les abus.
Notre mission sécurité
Chez ElevenLabs, nous croyons profondément aux immenses bénéfices de l’audio IA. Notre technologie est utilisée par des millions de personnes et des milliers d’entreprises pour rendre le contenu et l’information accessibles à des publics qui n’y avaient pas accès, créer des outils éducatifs interactifs, offrir des expériences de divertissement immersives, redonner une voix à ceux qui l’ont perdue à cause d’un accident ou d’une maladie, et bien plus encore.
Comme pour toute technologie de rupture, nous savons aussi qu’un mauvais usage peut causer du tort. C’est pourquoi nous nous engageons à protéger contre les abus de nos modèles et produits — en particulier les tentatives de tromper ou d’exploiter autrui. Nos principes de sécurité guident notre travail quotidien et se traduisent par des protections concrètes et multiples pour prévenir et traiter les abus.
« La sécurité de l’IA fait partie intégrante de l’innovation chez ElevenLabs. Garantir le développement, le déploiement et l’utilisation sûrs de nos systèmes reste au cœur de notre stratégie. »

Mati Staniszewski
Co-founder at ElevenLabs
« Le volume de contenus générés par l’IA va continuer d’augmenter. Nous voulons offrir la transparence nécessaire pour vérifier l’origine des contenus numériques. »

Piotr Dąbkowski
Co-founder at ElevenLabs
Nos principes de sécurité
Notre programme de sécurité repose sur les principes suivants :
Nos protections
Nous faisons en sorte de compliquer la tâche aux personnes mal intentionnées qui voudraient détourner nos outils, tout en gardant une expérience fluide pour les utilisateurs légitimes. Nous savons qu’aucun système de sécurité n’est parfait : il peut arriver que des protections bloquent par erreur des utilisateurs de bonne foi ou laissent passer des usages malveillants.
Nous déployons un ensemble complet de protections dans un système de défense à plusieurs niveaux. Si une couche est contournée, les suivantes prennent le relais pour détecter les abus. Nos mécanismes de sécurité évoluent en permanence pour suivre les progrès de nos modèles, produits et des tactiques adverses.
Informer
Nous adoptons des standards tiers comme C2PA et soutenons les efforts externes pour améliorer les outils de détection de deepfakes. Nous avons publié un classificateur audio IA de référence pour aider à déterminer si un contenu a été généré avec ElevenLabs.
Agir
Les clients qui enfreignent notre politique d’utilisation interdite s’exposent à des sanctions, y compris des bannissements en cas de récidive ou de violations graves. Nous signalons les activités criminelles ou illégales aux autorités compétentes.
Détecter
Nous surveillons activement notre plateforme pour détecter les violations de notre politique d’utilisation interdite, en utilisant des classificateurs IA, des modérateurs humains et des enquêtes internes. Nous travaillons avec des organisations externes pour mieux comprendre les risques d’abus et avons mis en place un système permettant au public de signaler les abus.
Prévenir
Nous testons nos modèles avant leur sortie et vérifions nos clients lors de l’inscription. Nous intégrons aussi des fonctionnalités pour décourager les usages malveillants ou irresponsables, comme le blocage du clonage de voix de célébrités ou à haut risque, et la vérification technologique obligatoire pour accéder à notre outil Professional Voice Cloning.
Programme de partenariat pour la sécurité
Nous soutenons les organisations de référence dans le développement de solutions techniques pour détecter les deepfakes en temps réel.
Signaler un contenu
Si vous trouvez un contenu qui vous semble problématique et que vous pensez qu’il a été créé avec nos outils, signalez-le ici.
Politique sur les contenus et usages interdits
Découvrez quels types de contenus et d’activités sont interdits avec nos outils.
Classificateur de parole IA ElevenLabs
Notre classificateur de parole IA permet de détecter si un extrait audio a été créé avec ElevenLabs.
Coalition pour la provenance et l’authenticité du contenu
Un standard technique ouvert permettant de retracer l’origine des médias.
Initiative pour l’authenticité du contenu
Promouvoir l’adoption d’un standard ouvert pour l’authenticité et la provenance des contenus.