Notre classificateur vocal basé sur l’IA vous permet de déterminer si un clip audio a été ou non créé à l'aide d'ElevenLabs.
Comment ElevenLabs se Prépare pour les Élections de 2024
Assurer le développement, le déploiement et l'utilisation sécurisée de nos systèmes est notre priorité
Tout au long de 2024, une série d'élections est prévue dans le monde. À l'approche de ces événements, nous nous concentrons sur l'utilisation sûre et équitable des voix IA.
Notre technologie est née de notre engagement à briser les barrières linguistiques et à favoriser la compréhension mondiale. Elle continue de trouver des applications inspirantes dans l'éducation, le divertissement et l'accessibilité, tout en rendant le contenu plus attrayant et inclusif.
Cependant, nous reconnaissons l'évolution de la technologie IA et ses implications pour le processus politique. Assurer le développement, le déploiement et l'utilisation sécurisée de nos systèmes est notre priorité et nous prenons des mesures supplémentaires pour lutter contre les abus et la désinformation à mesure que la technologie évolue.
Prévenir les abus
Dans nos efforts continus pour garantir une expérience positive à tous les utilisateurs de notre plateforme, nous prenons des mesures spécifiques pour empêcher l'utilisation des voix IA à des fins de désinformation. Bien que nos conditions interdisent déjà l'utilisation de notre plateforme pour usurper l'identité ou nuire à autrui, nous introduisons une mesure de protection ‘no-go voices’. Cette mesure est conçue pour détecter et empêcher la création de voix imitant des candidats politiques activement impliqués dans des élections présidentielles ou de premier ministre, en commençant par celles aux États-Unis et au Royaume-Uni. Nous travaillons à étendre cette protection à d'autres langues et cycles électoraux. Nous visons également à affiner continuellement cette mesure grâce à des tests pratiques et des retours d'expérience. Nous invitons les entreprises IA et partenaires à collaborer avec nous pour explorer des moyens d'améliorer et d'étendre ces protections efficacement.
Nous testons également activement de nouvelles façons de contrer la création de contenu politique qui pourrait affecter la participation au processus démocratique ou induire les électeurs en erreur. Nos systèmes nous ont toujours permis de retracer le contenu généré sur notre plateforme jusqu'au compte d'origine. Nous développons activement de nouveaux mécanismes de modération et de révision interne pour identifier et traiter plus efficacement les cas d'abus. Dénaturer les processus électoraux, l'éligibilité des électeurs ou la valeur du vote sape la démocratie et nous nous opposons fermement à l'utilisation de l'IA pour créer de la confusion ou de la méfiance dans le système démocratique. Utiliser notre technologie pour des activités de campagne politique impliquant l'usurpation d'identité, la création de chatbots ou le placement d'appels automatisés constitue une violation directe de nos conditions.
Transparence sur le contenu généré par IA
Permettre une identification claire du contenu généré par IA est un aspect clé de nos efforts de développement responsable.
En juin dernier, nous avons lancé le AI Speech Classifier, qui permet à quiconque de télécharger des échantillons audio pour analyser si l'audio a été généré par IA à partir de ElevenLabs. Notre objectif est d'aider à prévenir la désinformation en facilitant l'évaluation de la source du contenu audio. Si vous êtes intéressé par un partenariat ou une intégration, veuillez nous contacter à legal@elevenlabs.io. Si vous tombez sur quelque chose de préoccupant sur notre plateforme, ou que vous pensez avoir été créé sur notre plateforme, veuillez nous le faire savoir ici.
Équilibrer innovation et responsabilité
Nous sommes inspirés par les applications positives que notre communauté continue de trouver pour notre technologie. Tout au long de 2024 et au-delà, nous restons engagés dans l'innovation responsable en maintenant un dialogue continu avec notre communauté, nos partenaires, la société civile et les parties prenantes clés.
Découvrez les articles de l'équipe ElevenLabs

ElevenLabs et Reality Defender s'associent dans le cadre d’initiatives de sécurité de l'IA.
Reality Defender dope ses systèmes de détection d'IA en exploitant les données et les informations d'ElevenLabs sur l'IA audio.

Supporting the speech and ALS/MND communities at ASHA and Allied Professionals Forum
Members of the ElevenLabs Impact Program team recently attended two cornerstone events in the speech and assistive technology field, the American Speech-Language-Hearing Association (ASHA) Convention and the Allied Professionals Forum hosted by the International Alliance of ALS/MND Associations.

