Nous nous engageons à sécuriser l’usage de notre technologie d’IA audio IA.

L’IA audio permet de dépasser les barrières de la langue et de la communication, ouvrant ainsi la voie à un monde plus connecté, créatif et productif. Mais cette technologie peut aussi attirer des utilisateurs malveillants. Notre mission consiste à créer et à déployer les meilleurs produits d'IA audio tout en améliorant continuellement les mesures de protection visant à empêcher toute utilisation abusive de ces derniers.

Chez ElevenLabs, la sécurité de l’IA est indissociable de l’innovation. Garantir que nos systèmes soient développés, déployés et utilisés en toute sécurité reste au cœur de notre stratégie.
A young man smiling while working at a computer in an office setting.

Mati Staniszewski

Co-fondateur at ElevenLabs

Notre mission consiste à rendre le contenu accessible dans n'importe quelle langue et avec n'importe quelle voix.

Nous sommes un fournisseur de confiance proposant des produits audio basé sur l'IA à des millions d'utilisateurs à travers le monde, ainsi qu’à des sociétés d'édition et de médias de premier plan, notamment  :

The Washington Post Logo
CNN logo in red text
HarperCollins Publishers logo with a flame and water icon.

La sécurité d'ElevenLabs en pratique

Pour gérer les risques tout en garantissant que l’audio basé sur l'IA profite aux personnes du monde entier, nous sommes guidés par trois principes : modération, responsabilité et provenance.

Modération

Nous surveillons activement le contenu généré avec notre technologie.

Blurred yellow text box with a warning icon at the bottom left corner.

Modération automatisée. Nos systèmes automatisés analysent le contenu et recherche les violations de nos politiques, en les bloquant purement et simplement ou en les signalant pour examen.

Modération humaine. Une équipe croissante de modérateurs examine le contenu signalé et nous aide à garantir que nos politiques sont adoptées de manière cohérente.

Voix interdites. Bien que nos politiques interdisent les usurpations d’identité, nous utilisons un outil de sécurité supplémentaire pour détecter et empêcher la création de contenu avec des voix considérées comme particulièrement à risque.

voiceCAPTCHA. Nous avons développé une technologie exclusive de vérification vocale pour minimiser l'utilisation non autorisée d'outils de clonage vocal. Nous garantissons ainsi que les utilisateurs de notre outil de clonage vocal haute fidélité ne peuvent cloner que leur propre voix.

Responsabilité

Nous pensons que toute utilisation abusive doit avoir des conséquences.

A digital interface showing a microphone icon, a folder icon, and a green circular pattern with a checkmark.

Traçabilité. Lorsqu’un mauvais acteur utilise nos outils à mauvais escient, nous voulons pouvoir l’identifier. Nos systèmes nous permettent de retracer le contenu généré jusqu'aux comptes d'origine et nos outils de clonage vocal ne sont disponibles que pour les utilisateurs dont les comptes ont été vérifiés au moyen de leurs informations de facturation.

Interdictions. Nous voulons que les mauvais acteurs sachent qu’ils n’ont pas leur place sur notre plateforme. Nous bannissons définitivement les utilisateurs qui enfreignent nos politiques.

Partenariat avec les forces de l’ordre. Nous coopérerons avec les autorités et, dans les cas appropriés, signalerons ou divulguerons des informations sur des contenus ou des activités illégales.

Provenance

Selon nous, vous devez savoir si l’audio est ou non généré par l’IA.

Abstract black and white wavy lines on a light background.

Classificateur de parole AI. Nous avons développé un outil de détection très précis. Il maintient une précision de 99 % et un rappel de 80 % si l'échantillon n'a pas été modifié et permet à quiconque de vérifier si un fichier audio aurait pu être généré avec notre technologie.

Normes de détection de l'IA. Selon nous, des outils de détection d’IA présents en aval, tels que les métadonnées, les filigranes et les solutions d'empreintes digitales, sont essentiels. Nous soutenons l'adoption généralisée de normes industrielles en matière de provenance via la C2PA.

Collaboration. Nous invitons les autres entreprises du domaine de l’IA, les universités et les décideurs politiques à collaborer au développement de procédés à l'échelle de l'industrie pour la détection de contenu IA. Nous faisons partie de la Content Authenticity Initiative, et nous collaborons avec des distributeurs de contenu et la société civile pour établir la transparence du contenu IA. Nous soutenons également les efforts gouvernementaux de sécurité en matière d'IA et sommes membre de l’AI Safety Institute Consortium du NIST (National Institute of Standards and Technology).

Le volume des contenus générés par l’IA va poursuivre sa croissance. Nous souhaitons offrir la transparence nécessaire, en contribuant à vérifier les origines du contenu numérique.
Young man wearing a white T-shirt with "ElevenLabs" logo, indoors.

Piotr Dąbkowski

Co-founder at ElevenLabs

Cas spécifique : Élections en 2024

La moitié du monde votera en 2024. Pour préparer les élections de cette année, nous nous concentrons sur la promotion d’une utilisation sûre et équitable des voix IA.

Pour faciliter ces efforts, nous sommes l'un des premiers signataires du Tech Accord on Election Safety, l'accord technologique sur la sécurité électorale. Celui-ci rassemble des leaders du secteur, dont Amazon, Google, Meta, Microsoft, OpenAI et ElevenLabs, dans un effort concerté pour protéger les élections mondiales contre toute utilisation abusive de l'IA.

Alors que l’IA fait désormais partie de notre vie quotidienne, nous nous engageons à créer des produits fiables et à collaborer avec des partenaires au développement de mesures de protection contre leur utilisation abusive.
A woman with shoulder-length blonde hair smiling at the camera against a plain light gray background.

Aleksandra Pedraszewska

AI Safety at ElevenLabs

En savoir plus sur nos efforts en matière de sécurité

Conformité

Si vous rencontrez un contenu qui enfreint notre Politique relative au contenu et aux utilisations interdits et pensez qu'il a été créé sur notre plateforme, veuillez nous le signaler ici. Les utilisateurs de l'UE peuvent nous signaler tout contenu qu'ils estiment illégal (conformément à l'article 16 du règlement DSA, le règlement européen sur les services numériques) ici. Nous avons également désigné un point de contact unique pour les utilisateurs de l'UE (conformément à l'article 12 du règlement DSA). Ils peuvent nous y contacter pour tout autre sujet de préoccupation ici.

Dans le cadre de son engagement en faveur d'une IA responsable, ElevenLabs a établi des politiques portant sur la coopération avec les autorités gouvernementales, y compris les forces de l'ordre. Dans les cas appropriés, cela peut inclure le signalement d’un contenu interdit, la divulgation d’informations à son sujet, ainsi que la réponse aux demandes légales des forces de l’ordre et d’autres entités gouvernementales. Les autorités chargées de l'application de la loi peuvent soumettre des demandes légales auprès de notre équipe juridique ici. Conformément à l'article 11 du règlement DSA, le règlement européen sur les services numériques, les autorités chargées de l'application de la loi dans l'UE peuvent adresser une demande de procédure judiciaire non urgente à ElevenLabs Sp. z o.o en soumettant leur demande DSA via un formulaire ici. Ce formulaire a été désigné comme point de contact unique pour les communications directes avec la Commission européenne, les autorités des États membres et le Comité européen des services numériques. Les autorités peuvent communiquer avec Eleven Labs en anglais et en polonais. Lorsque la loi applicable l’exige, les procédures juridiques internationales peuvent nécessiter une soumission par le biais d’un traité d’entraide judiciaire.

Si vous êtes un utilisateur de l'UE, vous disposez de six mois pour faire appel d'une action entreprise par ElevenLabs à l’encontre de votre contenu ou de votre compte. Si votre compte ou votre contenu a été restreint, vous pouvez soumettre votre appel en répondant à la notification que vous avez reçue. Si vous souhaitez faire appel du résultat du rapport de contenu illégal DSA vous concernant, veuillez utiliser le formulaire ici.

Les utilisateurs de l'UE peuvent également contacter des organismes de règlement extrajudiciaire certifiés pour obtenir de l'aide à la résolution des litiges relatifs aux restrictions de contenu ou de compte, ainsi que les appels associés. Les décisions rendues par les organismes de règlement extrajudiciaire ne sont pas contraignantes.
ElevenLabs

Créez avec l'audio AI de la plus haute qualité.

Se lancer gratuitement

Vous avez déjà un compte ? Se connecter