Faire progresser la sécurité de l'IA avec Reality Defender

Comment notre collaboration soutient une meilleure détection des voix générées par l'IA

À mesure que les voix générées par l'IA s'améliorent, les outils qui les détectent doivent également évoluer. Au cours des derniers mois, nous avons travaillé avec Reality Defender pour aider à améliorer la détection des voix synthétiques - en veillant à ce qu'à mesure que la technologie vocale progresse, la capacité du public à déterminer ce qui est généré par l'IA et ce qui est authentique progresse également. 

Reality Defender décrit cette collaboration comme "transformante" pour les systèmes de détection. En intégrant nos données de voix synthétiques dans leurs modèles, ils ont "élargi et amélioré [leur] capacité à identifier des deepfakes vocaux sophistiqués."

Un point clé de ce travail est l'importance des données de haute qualité et du monde réel. Comme ils le disent, notre collaboration les a aidés à former des systèmes de détection sur "le type le plus susceptible d'être utilisé dans des tentatives de fraude dans le monde réel."

Reality Defender a publié un blog sur leur travail de détection des voix générées par l'IA, y compris leur collaboration avec nous. Lisez leur perspective complète ci-dessous.

Renforcer la confiance numérique : Comment ElevenLabs aide Reality Defender à faire progresser la détection des deepfakes vocaux

La sophistication croissante du contenu généré par l'IA a intensifié le besoin de capacités robustes de détection des médias synthétiques. Au cours des derniers mois, le partenariat stratégique de Reality Defender avec ElevenLabs a permis d'importants progrès technologiques dans notre capacité à détecter le contenu vocal généré par l'IA, fournissant des informations cruciales sur l'évolution du paysage de la détection des médias synthétiques. Notre analyse de cette collaboration révèle des améliorations transformantes tant dans la portée que dans la précision de nos capacités de détection, établissant de nouvelles références pour l'industrie.

Un partenariat stratégique pour l'intégrité numérique

La mission de Reality Defender de sécuriser les canaux de communication critiques contre les impersonations deepfake s'aligne parfaitement avec l'engagement d'ElevenLabs envers le développement responsable de l'IA. Cette collaboration représente une vision partagée : s'assurer qu'à mesure que la technologie de synthèse vocale progresse, les outils pour détecter son utilisation abusive progressent également.

Grâce à ce partenariat, Reality Defender a intégré les données complètes de synthèse vocale d'ElevenLabs provenant de modèles existants et futurs dans nos systèmes de détection, élargissant et améliorant considérablement notre capacité à identifier des deepfakes vocaux sophistiqués. L'impact a été transformateur. Nos ensembles de données d'entraînement ont été enrichis de plus de 295 heures de données vocales synthétiques de haute qualité, offrant une profondeur et une variété sans précédent dans nos capacités de détection.

Nos modèles de détection audio ont atteint une intégration complète avec tous les modèles vocaux d'ElevenLabs, permettant une couverture complète à travers le paysage vocal synthétique. Cette collaboration a permis une amélioration par dix de l'efficacité de génération de données, accélérant notre capacité à nous adapter aux menaces émergentes. Comparé à d'autres plateformes de voix synthétiques, ElevenLabs offre l'une des interfaces les plus conviviales, nous permettant de générer et de traiter des données au moins 10 fois plus rapidement que les solutions alternatives. Peut-être plus significativement, grâce à notre partenariat avec ElevenLabs, l'équipe de Reality Defender a élargi nos capacités de détection pour couvrir plusieurs langues et accents, reflétant la nature mondiale des défis de la voix synthétique.

Innovation technique à grande échelle

Ce qui rend ce partenariat particulièrement puissant, c'est la qualité et la diversité des données vocales synthétiques d'ElevenLabs. Représentant environ 20 % de notre ensemble de données d'entraînement total, ces données fournissent à nos modèles de détection une exposition à des voix synthétiques de qualité commerciale — le type le plus susceptible d'être utilisé dans des tentatives de fraude dans le monde réel. Sans la contribution d'ElevenLabs, notre ensemble d'entraînement manquerait de diversité critique du monde réel et serait significativement plus faible pour détecter les voix synthétiques utilisées dans des scénarios pratiques. Ces données de qualité commerciale se sont révélées essentielles pour maintenir notre système de détection à la pointe de la technologie contre des deepfakes vocaux sophistiqués.

L'implémentation technique se concentre sur trois domaines clés :

  1. Formation de modèle complète$ En incorporant les données de synthèse vocale diversifiées d'ElevenLabs, nos modèles de détection acquièrent une exposition à un large éventail de caractéristiques de voix synthétiques, améliorant la précision dans différents scénarios.
  2. Capacité multilingue$ Le partenariat permet la détection dans 8 langues, avec d'autres en développement, répondant à la nature mondiale des menaces basées sur la voix.
  3. Application dans le monde réel$ Contrairement aux approches basées sur la provenance qui s'appuient sur le marquage ou la vérification de la source d'origine, notre détection basée sur l'inférence peut identifier le contenu synthétique indépendamment de son origine.

Impact démontrable

Les résultats de cette collaboration en disent long. Notre équipe a réalisé une expansion significative de nos capacités de détection de voix synthétiques, établissant de nouvelles normes pour la précision et la fiabilité dans le domaine. Notre capacité améliorée à identifier les deepfakes vocaux de qualité commerciale représente une avancée cruciale pour se protéger contre des menaces sophistiquées. Grâce à des processus de génération de données plus efficaces, nous avons accéléré nos cycles de développement, permettant une réponse plus rapide aux technologies de voix synthétiques émergentes. De plus, notre couverture linguistique élargie offre désormais des capacités de détection robustes pour des scénarios de menaces mondiales, répondant à la nature internationale des défis des médias synthétiques.

Regard vers l'avenir

Ce partenariat représente plus qu'une simple collaboration technique — c'est un modèle de la manière dont les entreprises d'IA peuvent travailler ensemble pour garantir le développement responsable de nouvelles technologies puissantes. Alors que les capacités de synthèse vocale continuent d'avancer, notre partenariat avec ElevenLabs garantit que les capacités de détection de Reality Defender évoluent en parallèle.

Nous sommes fiers de travailler avec ElevenLabs dans cet effort crucial pour protéger l'authenticité numérique et maintenir la confiance dans notre monde de plus en plus habilité par l'IA. Ensemble, nous établissons de nouvelles normes pour le développement responsable de l'IA tout en fournissant les outils nécessaires pour identifier et prévenir l'utilisation abusive des médias synthétiques.

Le paysage des menaces continue d'évoluer, avec des pertes financières dues aux deepfakes qui devraient atteindre des dizaines de milliards de dollars dans les années à venir. Grâce à des partenariats comme celui-ci, nous construisons l'infrastructure nécessaire pour protéger les organisations et les individus contre des tentatives d'imitation sophistiquées tout en soutenant les applications positives de la technologie IA.

En voir plus

ElevenLabs

Créez avec l'audio AI de la plus haute qualité.

Se lancer gratuitement

Vous avez déjà un compte ? Se connecter