Salta al contenido

Seguridad

Audio creado con IA para abrir nuevas posibilidades y generar impacto positivo, siempre con responsabilidad y medidas que protegen a las personas frente a usos indebidos.

Nuestra misión de seguridad

En ElevenLabs creemos firmemente en los enormes beneficios del audio con IA. Nuestra tecnología la usan millones de personas y miles de empresas para hacer accesible contenido e información a quienes antes no podían, crear herramientas educativas atractivas, potenciar experiencias de entretenimiento inmersivas, devolver la voz a quienes la han perdido por accidente o enfermedad, y mucho más.

Como ocurre con toda tecnología transformadora, sabemos que un mal uso puede causar daño. Por eso nos comprometemos a proteger frente al uso indebido de nuestros modelos y productos, especialmente ante intentos de engañar o aprovecharse de otros. Nuestros principios de seguridad guían nuestro trabajo diario y se reflejan en medidas concretas y de varios niveles para prevenir y abordar abusos.

“La seguridad en IA es inseparable de la innovación en ElevenLabs. Garantizar que nuestros sistemas se desarrollan, despliegan y usan de forma segura está en el centro de nuestra estrategia.”

Mati Staniszewski

Mati Staniszewski

Co-founder at ElevenLabs

“El volumen de contenido generado con IA seguirá creciendo. Queremos aportar la transparencia necesaria y ayudar a verificar el origen del contenido digital.”

Piotr Dąbkowski

Piotr Dąbkowski

Co-founder at ElevenLabs

Nuestros principios de seguridad

Nuestro programa de seguridad se basa en estos principios:

Foreground

Nuestras medidas de protección

Buscamos poner las cosas difíciles a quienes intentan usar mal nuestras herramientas, sin afectar la experiencia de quienes las usan de forma legítima. Sabemos que ningún sistema de seguridad es perfecto: a veces, las medidas pueden bloquear por error a usuarios legítimos o no detectar a quienes actúan de mala fe.

Aplicamos un conjunto completo de medidas de protección en un sistema de defensa por capas. Si una capa se supera, las siguientes están preparadas para detectar el mal uso. Nuestros mecanismos de seguridad evolucionan constantemente para adaptarse a los avances en nuestros modelos, productos y tácticas adversarias.

Informar

Adoptamos estándares de terceros como C2PA y apoyamos iniciativas externas para mejorar las herramientas de detección de deepfakes. Hemos publicado nuestro clasificador de audio IA líder en el sector para ayudar a otros a identificar si un contenido se ha generado con ElevenLabs.

Actuar

Quienes incumplen nuestra Política de Uso Prohibido pueden recibir sanciones, incluido el bloqueo en casos graves o reiterados. Si detectamos actividades ilegales, las trasladamos a las autoridades competentes.

Detectar

Supervisamos activamente la plataforma para detectar incumplimientos de nuestra Política de Uso Prohibido, usando clasificadores de IA, revisores humanos e investigaciones internas. Colaboramos con organizaciones externas para identificar posibles abusos y ofrecemos un canal para que cualquiera pueda reportar usos indebidos.

Prevenir

Ponemos a prueba nuestros modelos antes de lanzarlos y revisamos a quienes se registran. También integramos funciones para evitar usos indebidos, como bloquear la clonación de voces de famosos o de alto riesgo y exigir verificación tecnológica para acceder a nuestra herramienta Professional Voice Cloning.

Programa de colaboración en seguridad

Colaboramos con organizaciones líderes para desarrollar soluciones técnicas que detecten deepfakes en tiempo real.

Reportar contenido

Si encuentras contenido que te preocupe y crees que se ha creado con nuestras herramientas, repórtalo aquí.

Política de contenido y usos prohibidos

Descubre qué tipo de contenido y actividades no están permitidas al usar nuestras herramientas.

Clasificador de voz IA de ElevenLabs

Nuestro clasificador de voz IA te permite saber si un audio se ha creado con ElevenLabs.

Coalición para la procedencia y autenticidad del contenido

Un estándar técnico abierto que permite rastrear el origen de los medios.

Iniciativa de autenticidad del contenido

Impulsando la adopción de un estándar abierto del sector para la autenticidad y procedencia del contenido.

Preguntas frecuentes

La plataforma de voz IA más realista