Nous nous engageons à sécuriser l’usage de notre technologie d’IA audio IA.

L’IA audio permet de dépasser les barrières de la langue et de la communication, ouvrant ainsi la voie à un monde plus connecté, créatif et productif. Mais cette technologie peut aussi attirer des utilisateurs malveillants. Notre mission consiste à créer et à déployer les meilleurs produits d'IA audio tout en améliorant continuellement les mesures de protection visant à empêcher toute utilisation abusive de ces derniers.

Chez ElevenLabs, la sécurité de l’IA est indissociable de l’innovation. Garantir que nos systèmes soient développés, déployés et utilisés en toute sécurité reste au cœur de notre stratégie.

Mati Staniszewski

Co-fondateur at ElevenLabs

Notre mission consiste à rendre le contenu accessible dans n'importe quelle langue et avec n'importe quelle voix.

Nous sommes un fournisseur de confiance proposant des produits audio basé sur l'IA à des millions d'utilisateurs à travers le monde, ainsi qu’à des sociétés d'édition et de médias de premier plan, notamment  :

The Washington Post Logo

La sécurité d'ElevenLabs en pratique

Pour gérer les risques tout en garantissant que l’audio basé sur l'IA profite aux personnes du monde entier, nous sommes guidés par trois principes : modération, responsabilité et provenance.

Modération

Nous surveillons activement le contenu généré avec notre technologie.

Modération automatisée. Nos systèmes automatisés analysent le contenu et recherche les violations de nos politiques, en les bloquant purement et simplement ou en les signalant pour examen.

Modération humaine. Une équipe croissante de modérateurs examine le contenu signalé et nous aide à garantir que nos politiques sont adoptées de manière cohérente.

Voix interdites. Bien que nos politiques interdisent les usurpations d’identité, nous utilisons un outil de sécurité supplémentaire pour détecter et empêcher la création de contenu avec des voix considérées comme particulièrement à risque.

voiceCAPTCHA. Nous avons développé une technologie exclusive de vérification vocale pour minimiser l'utilisation non autorisée d'outils de clonage vocal. Nous garantissons ainsi que les utilisateurs de notre outil de clonage vocal haute fidélité ne peuvent cloner que leur propre voix.

Responsabilité

Nous pensons que toute utilisation abusive doit avoir des conséquences.

Traçabilité. Lorsqu’un mauvais acteur utilise nos outils à mauvais escient, nous voulons pouvoir l’identifier. Nos systèmes nous permettent de retracer le contenu généré jusqu'aux comptes d'origine et nos outils de clonage vocal ne sont disponibles que pour les utilisateurs dont les comptes ont été vérifiés au moyen de leurs informations de facturation.

Interdictions. Nous voulons que les mauvais acteurs sachent qu’ils n’ont pas leur place sur notre plateforme. Nous bannissons définitivement les utilisateurs qui enfreignent nos politiques.

Partenariat avec les forces de l’ordre. Nous coopérerons avec les autorités et, dans les cas appropriés, signalerons ou divulguerons des informations sur des contenus ou des activités illégales.

Provenance

Selon nous, vous devez savoir si l’audio est ou non généré par l’IA.

Classificateur de parole AI. Nous avons développé un outil de détection très précis. Il maintient une précision de 99 % et un rappel de 80 % si l'échantillon n'a pas été modifié et permet à quiconque de vérifier si un fichier audio aurait pu être généré avec notre technologie.

Normes de détection de l'IA. Selon nous, des outils de détection d’IA présents en aval, tels que les métadonnées, les filigranes et les solutions d'empreintes digitales, sont essentiels. Nous soutenons l'adoption généralisée de normes industrielles en matière de provenance via la C2PA.

Collaboration. Nous invitons les autres entreprises du domaine de l’IA, les universités et les décideurs politiques à collaborer au développement de procédés à l'échelle de l'industrie pour la détection de contenu IA. Nous faisons partie de la Content Authenticity Initiative, et nous collaborons avec des distributeurs de contenu et la société civile pour établir la transparence du contenu IA. Nous soutenons également les efforts gouvernementaux de sécurité en matière d'IA et sommes membre de l’AI Safety Institute Consortium du NIST (National Institute of Standards and Technology).

Le volume des contenus générés par l’IA va poursuivre sa croissance. Nous souhaitons offrir la transparence nécessaire, en contribuant à vérifier les origines du contenu numérique.

Piotr Dąbkowski

Co-founder at ElevenLabs

Cas spécifique : Élections en 2024

La moitié du monde votera en 2024. Pour préparer les élections de cette année, nous nous concentrons sur la promotion d’une utilisation sûre et équitable des voix IA.

Pour faciliter ces efforts, nous sommes l'un des premiers signataires du Tech Accord on Election Safety, l'accord technologique sur la sécurité électorale. Celui-ci rassemble des leaders du secteur, dont Amazon, Google, Meta, Microsoft, OpenAI et ElevenLabs, dans un effort concerté pour protéger les élections mondiales contre toute utilisation abusive de l'IA.

Alors que l’IA fait désormais partie de notre vie quotidienne, nous nous engageons à créer des produits fiables et à collaborer avec des partenaires au développement de mesures de protection contre leur utilisation abusive.

Aleksandra Pedraszewska

AI Safety at ElevenLabs

En savoir plus sur nos efforts en matière de sécurité

Conformité

ElevenLabs

Créez avec l'audio AI de la plus haute qualité.

Se lancer gratuitement

Vous avez déjà un compte ? Se connecter