Mise à jour sur notre préparation aux élections

L’année 2024 dans son ensemble constituera une période électorale charnière dans des pays du monde entier. Et nous avons pris des mesures concrètes visant à empêcher l'utilisation abusive de nos outils.

Chez ElevenLabs, nous nous engageons à rendre le contenu accessible et attrayant dans toutes les langues, dans toutes les voix et quel que soit le son. Nous croyons profondément au pouvoir de notre technologie pour créer un monde plus connecté et mieux informé, et par voie de conséquence, constituer une force positive pour le processus démocratique. Nous avons habilité les législateurs à récupérer leurs voix. Nous les aidons à continuer leur lutte pour leurs électeurs et les causes qui leur tiennent à cœur. Nous avons fait la même chose pour les militants, en soutenant leurs efforts pour apporter des changements et améliorer les vies. Et notre travail visant à éliminer les obstacles à la connaissance, à la participation et à la communauté ne fait que commencer. 

Nous pensons également qu’il nous appartient à tous – industrie, gouvernements, société civile et individus – non seulement de promouvoir le processus démocratique, mais également de le protéger. L’année 2024 dans son ensembleconstituera une période électorale cruciale dans des pays du monde entier. Et nous avons pris des mesures concrètes visant à empêcher l’utilisation abusive de nos outils. À l’approche des élections américaines du 5 novembre, voici une mise à jour de nos efforts.

Politiques

Nous avons révisé notre politique d'utilisation interdite (« Prohibited Use Policy ») afin de renforcer et de clarifier les règles concernant l’utilisation de nos outils dans le cadre électoral.

  • Interdiction de faire campagne et de se faire passer pour des candidats. Nous interdisons strictement l’utilisation de nos outils à des fins de campagne politique, y compris la promotion ou le plaidoyer en faveur d’un candidat, d’un thème ou d’une position spécifique, ou de sollicitation de votes ou de contributions financières. Nous interdisons également l’utilisation de nos outils pour imiter les voix des candidats politiques et des représentants élus du gouvernement.
  • Interdiction de supprimer les électeurs et de perturber le processus électoral. Nous interdisons l’utilisation de nos outils pour inciter ou faciliter la suppression des électeurs ou d’autres perturbations des processus électoraux ou civiques, ou pour y prendre part. Cela comprend la création, la distribution ou la facilitation de la diffusion d’informations trompeuses.

Prévention

Nous avons renforcé nos mesures de protection en vue d’empêcher l’utilisation abusive de nos outils dans le contexte des élections. 

  • Filtrage des utilisateurs. Tous les utilisateurs de nos outils de clonage vocal doivent fournir des informations de contact et de paiement, ce qui nous aide, lors de l’inscription, à bloquer les comptes liés à des activités frauduleuses ou à des zones géographiques à haut risque.
  • Voix interdites. Notre technologie de voix interdites (« No-Go Voice «) empêche la génération des voix de centaines de candidats, d'élus, d'autres personnalités politiques et de célébrités. Nous étendons continuellement cette protection pour accroître son efficacité, et nous surveillons les utilisateurs qui tentent de générer des voix bloquées et et prenons des mesures coercitives à leur encontre.

Détection et application de la loi

Pour compléter nos mesures préventives, nous avons renforcé nos capacités de détection et de mise en vigueur.

  • Surveillance des abus. Nos classificateurs propriétaires améliorés, dont un spécialement conçu pour identifier les contenus politiques, ainsi que la modération automatisée et les réviseurs humains sont autant de moyens qui contribuent à détecter tout contenu qui enfreint nos conditions. Nous travaillons également avec des équipes externes de renseignement sur les menaces. Elles nous fournissent des informations sur les abus potentiels visant à perturber les élections. En outre, nous avons mis en place des canaux de partage d’informations avec des partenaires gouvernementaux et industriels.
  • Application rigoureuse de la loi. Lorsque nous identifions une utilisation abusive, nous prenons des mesures fermes, notamment la suppression des voix impliquées, la mise à l'épreuve des utilisateurs, voire leur bannissement de notre plateforme et, si nécessaire, le signalement aux autorités. Si vous rencontrez un contenu problématique qui, selon vous, pourrait provenir d'ElevenLabs, veuillez nous le faire savoir.
  • Soutien aux efforts du gouvernement. Nous pensons que l’action gouvernementale est essentielle pour dissuader les abus. En juillet, nous étions fiers d’ annoncer notre soutien à la loi sur la protection des élections contre l'IA trompeuse (« Protect Elections from Deceptive AI Act »), une législation bipartite dirigée par les sénateurs Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper et Marsha Blackburn. Elle tiendrait pour responsables les utilisateurs malveillants exploitant l'IA dans les publicités de campagne pour tromper les électeurs. Nous poursuivrons notre collaboration avec les décideurs politiques aux États-Unis et dans le monde entier sur les initiatives de sécurité de l’IA, y compris celles liées aux élections.

Provenance et transparence

Permettre l’identification claire du contenu généré par l’IA, notamment grâce à une large collaboration, reste un aspect clé des efforts de développement responsable d’ElevenLabs.

  • AI Speech Classifier. Notre classificateur de discours IA – AI Speech Classifier –disponible publiquement depuis juin 2023, permet à tout utilisateur de télécharger un échantillon audio pour analyse afin de déterminer s'il provient ou non d'ElevenLabs. En rendant cet outil public, nous souhaitons limiter la propagation de la désinformation en facilitant l’identification des sources audio.
  • Prise en charge des outils de détection tiers. Nous travaillons avec des sociétés tierces œuvrant pour la sécurité de l'IA, afin d’améliorer leurs outils d'identification de contenu généré par l'IA, y compris de deepfakes liés aux élections. En juillet, nous avons établi un partenariat avec Reality Defender – une société de cybersécurité spécialisée dans la détection des hypertrucages, ou « deepfakes » – en fournissant l’accès à nos modèles et nos données pour renforcer leurs outils de détection. Notre partenariat aide les clients de Reality Defender, y compris les gouvernements et les grandes entreprises, à détecter les menaces générées par l'IA en temps réel, protégeant ainsi les citoyens du monde entier contre la désinformation et la fraude sophistiquée. Nous sommes également impliqués dans d'autres projets académiques et commerciaux, notamment des initiatives de recherche à la School of Information de l'UC Berkeley, visant à faire progresser la détection de contenu par l'IA.

Dans les jours et les semaines à venir, nous continuerons nos apprentissage et l’optimisation de ces mesures de protection. Nous reconnaissons que nous ne pouvons pas anticiper toutes les façons dont nos outils peuvent être utilisés. Mais nous continuerons à prendre des mesures énergiques pour prévenir les abus, tout en déployant notre technologie pour créer un monde plus connecté et plus informé.

En voir plus

ElevenLabs

Créez avec l'audio AI de la plus haute qualité.

Se lancer gratuitement

Vous avez déjà un compte ? Se connecter