ElevenLabs et Loccus lancent une collaboration sur les systèmes de détection Deepfake

Garantir une protection contre les abus potentiels de l'IA audio

Locus logo with stylized "Q" symbols in blue, purple, and teal on a beige background.
  • ElevenLabs s'associe à Loccus pour développer des normes et des solutions éthiques au sein des systèmes de détection d’IA et d’hypertrucages, ou deepfakes.
  • Cette collaboration vise à fournir aux utilisateurs et aux entreprises des outils leur permettant de détecter une parole synthétique et de garantir une protection contre les éventuelles utilisations abusives de l'IA
  • Cette collaboration vise aussi à impliquer d'autres laboratoires d'IA, des experts de l'industrie, des communautés universitaires et des contributeurs individuels clés, afin d'améliorer la profondeur et l'impact du projet.

ElevenLabs, leader mondial de la technologie de l'IA vocale, et Loccus, développeur de systèmes de sécurité d'authentification vocale, annoncent aujourd'hui une collaboration visant à améliorer les normes de sécurité de l'IA audio. Cette initiative représente un effort mutuel visant à ancrer des considérations éthiques au cœur des développements technologiques de l’IA ; en répondant aux préoccupations importantes liées à l’utilisation abusive de l’IA et de la parole synthétique.

Cette collaboration se positionne pour s’attaquer aux risques associés à une utilisation abusive de l’IA, tels que la désinformation, la fraude et la manipulation. Pour ce faire, elle dote les utilisateurs et les entreprises d’outils robustes pour détecter la parole synthétique.

ElevenLabs et Loccus s'engagent à intégrer divers éclairages et perspectives en accueillant les contributions d'experts de l'industrie, de communautés universitaires et d'acteurs clés du domaine de l'IA. Cette approche vise à maximiser l’impact des efforts collectifs des entreprises, favorisant ainsi un environnement où la connaissance et l’innovation se rencontrent pour façonner des pratiques et des politiques d’IA éthiques.

En établissant des lignes de collaboration ouvertes, nous aspirons à créer un cadre qui permet à toutes les parties prenantes de l’écosystème de l’IA de participer activement à l’établissement et au maintien de normes éthiques. Cette collaboration n’est pas seulement une réponse aux défis immédiats posés par les avancées de l’IA ; elle constitue aussi une étape proactive vers la construction d’un paysage technologique responsable et sécurisé.

L’alliance avec Loccus s’aligne parfaitement avec la mission d’ElevenLabs : favoriser des pratiques d’IA éthiques. En combinant notre expertise en matière d'IA vocale et de sécurité, non seulement nous relevons les défis immédiats, mais nous ouvrons également la voie à un écosystème responsable basé sur l'IA., explique Mati Staniszewski, PDG d'ElevenLabs.

Les efforts conjoints d’ElevenLabs et de Loccus symbolisent une vision partagée d’un avenir de l’IA caractérisé par l’intégrité éthique et la sécurité.


Découvrez les articles de l'équipe ElevenLabs

Impact
A person's hands are holding a tablet with the app "Predictable" open. The app's keyboard and a text field with the words "How are you? Thanks" and "I use Predictable to speak" are visible. The person is using the app to communicate.

Preserving identity at scale: ElevenLabs voices now in Predictable

Predictable, created by Therapy Box, is one of the world’s leading AAC apps, empowering people with complex communication needs to express themselves with confidence and independence. At its core, Predictable helps people who cannot always rely on natural speech to communicate in ways that feel natural and personal. Now, by partnering with our ElevenLabs Impact Program, every Predictable user has free access to ElevenLabs voices.

ElevenLabs

Créez avec l'audio AI de la plus haute qualité.

Se lancer gratuitement

Vous avez déjà un compte ? Se connecter