Black Friday

Utiliser

Une mise à jour sur notre préparation pour les élections

Tout au long de 2024, une année électorale cruciale dans de nombreux pays, nous avons pris des mesures concrètes pour prévenir l'utilisation abusive de nos outils

Chez ElevenLabs, nous nous engageons à rendre le contenu accessible et captivant dans toutes les langues, voix et sons. Nous croyons profondément au pouvoir de notre technologie pour créer un monde plus connecté et informé, et ainsi être une force positive pour le processus démocratique. Nous avonspermis aux législateurs de retrouver leur voix, les aidant à continuer de défendre leurs électeurs et les causes qui leur tiennent à cœur. Nous avons fait de même pourles défenseurs, soutenant leurs efforts pour apporter des changements et améliorer des vies. Et notre travail pour éliminer les obstacles à la connaissance, à la participation et à la communauté ne fait que commencer.

Nous croyons aussi qu'il est de notre responsabilité à tous – industrie, gouvernements, société civile et individus – non seulement de promouvoir le processus démocratique, mais de le protéger.Tout au long de 2024, une année électorale cruciale dans de nombreux pays, nous avons pris des mesures concrètes pour prévenir l'utilisation abusive de nos outils. Avant l'élection américaine du 5 novembre, voici une mise à jour sur nos efforts.

Politiques

Nous avons révisé notrePolitique d'utilisation interdite pour renforcer et clarifier nos règles concernant l'utilisation de nos outils dans le contexte des élections.

  • Interdiction de la campagne et de l'usurpation des candidats.Nous interdisons strictement l'utilisation de nos outils pour la campagne politique, y compris la promotion ou le soutien d'un candidat, d'une cause ou d'une position particulière, ou la sollicitation de votes ou de contributions financières. Nous interdisons également l'utilisation de nos outils pour imiter les voix des candidats politiques et des responsables gouvernementaux élus.
  • Interdiction de la suppression des électeurs et des perturbations du processus électoral.Nous interdisons l'utilisation de nos outils pour inciter, participer ou faciliter la suppression des électeurs ou d'autres perturbations des processus électoraux ou civiques. Cela inclut la création, la distribution ou la facilitation de la diffusion d'informations trompeuses.

Prévention

Nous avons renforcé nos mesures de sécurité pour prévenir l'utilisation abusive de nos outils dans le contexte des élections.

  • Vérification des utilisateurs.Tous les utilisateurs de nos outils de Voice Cloning doivent fournir des informations de contact et de paiement, ce qui nous aide à bloquer les comptes liés à des activités frauduleuses ou à des zones géographiques à haut risque lors de l'inscription.
  • Voix interdites.Notre technologie de Voix Interdites bloque les voix de centaines de candidats, responsables élus, autres personnalités politiques et célébrités de la génération. Nous avons continuellement élargi cette mesure de sécurité pour accroître son efficacité, et nous surveillons et prenons des mesures contre les utilisateurs qui tentent de générer des voix bloquées.

Détection et application

Pour compléter nos mesures préventives, nous avons renforcé nos capacités de détection et d'application.

  • Surveillance des abus.Nos classificateurs propriétaires améliorés, y compris un spécifiquement conçu pour identifier le contenu politique, ainsi que la modération automatisée et les examinateurs humains, nous aident à détecter le contenu qui viole nos conditions. Nous travaillons également avec des équipes de renseignement sur les menaces externes qui fournissent des informations sur les abus potentiels visant à perturber les élections, et nous avons mis en place des canaux de partage d'informations avec des partenaires gouvernementaux et industriels.
  • Application stricte.Lorsque nous identifions un abus, nous prenons des mesures décisives, y compris la suppression des voix, la mise en probation des utilisateurs, l'interdiction des utilisateurs de notre plateforme, et si nécessaire, le signalement aux autorités. Si vous tombez sur un contenu problématique que vous pensez provenir de ElevenLabs, veuilleznous le faire savoir.
  • Soutien aux efforts gouvernementaux.Nous croyons que l'action gouvernementale est essentielle pour dissuader les abus. En juillet, nous étions fiers d'annoncer notre soutien à laProtect Elections from Deceptive AI Act, une législation bipartite dirigée par les sénateurs Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper et Marsha Blackburn, qui tiendrait responsables les mauvais acteurs utilisant l'IA dans les publicités de campagne pour tromper les électeurs. Nous continuerons à travailler avec les décideurs politiques aux États-Unis et dans le monde entier sur les initiatives de sécurité IA, y compris celles liées aux élections.

Provenance et transparence

Permettre l'identification claire du contenu généré par l'IA, y compris par une large collaboration, reste un aspect clé des efforts de développement responsable de ElevenLabs.

  • Classificateur de discours IA.NotreClassificateur de discours IA, disponible au public depuisjuin 2023, permet à quiconque de télécharger un échantillon audio pour analyse afin de déterminer s'il provient de ElevenLabs. En rendant cet outil public, nous visons à limiter la propagation de la désinformation en rendant la source de l'audio plus facile à identifier.
  • Collaboration avec l'industrie.En ce qui concerne la provenance et la transparence du contenu IA, nous ne pouvons pas agir seuls – un effort à l'échelle de l'industrie est nécessaire. C'est pourquoi nous faisons partie de l'Initiative d'Authenticité du Contenu (CAI), qui réunit des grandes entreprises médiatiques et technologiques pour développer des normes de provenance. Grâce à laCoalition pour la Provenance et l'Authenticité du Contenu (C2PA), nous mettons en œuvre ces normes en intégrant des métadonnées signées cryptographiquement dans l'audio généré sur notre plateforme. Cela garantit que les canaux de distribution de contenu qui adoptent les outils de CAI, comme les principales plateformes de médias sociaux, peuvent reconnaître notre audio comme généré par l'IA.
  • Soutien aux outils de détection tiers.Nous travaillons avec des entreprises de sécurité IA tierces pour améliorer leurs outils d'identification du contenu généré par l'IA, y compris les deepfakes liés aux élections. En juillet, nous avonspartenarié avecReality Defender – une entreprise de cybersécurité spécialisée dans la détection de deepfakes – en fournissant l'accès à nos modèles et données pour renforcer leurs outils de détection. Notre partenariat aide les clients de Reality Defender, y compris les gouvernements et les grandes entreprises, à détecter les menaces générées par l'IA en temps réel, protégeant ainsi les personnes du monde entier contre la désinformation et la fraude sophistiquée. Nous sommes également impliqués dans d'autres projets académiques et commerciaux, y compris des initiatives de recherche à l'École d'Information de l'UC Berkeley, pour faire progresser la détection du contenu IA.

Dans les jours et semaines à venir, nous continuerons à apprendre et à affiner ces mesures de sécurité. Nous reconnaissons que nous ne pouvons pas prévoir toutes les façons dont nos outils peuvent être utilisés. Mais nous continuerons à prendre des mesures robustes pour prévenir les abus, tout en déployant notre technologie pour créer un monde plus connecté et informé.

Découvrez les articles de l'équipe ElevenLabs

ElevenLabs

Créez avec l'audio AI de la plus haute qualité.

Se lancer gratuitement

Vous avez déjà un compte ? Se connecter