Seguridad
Seguridad
Audio creado con IA para abrir nuevas posibilidades y generar impacto positivo, siempre con responsabilidad y medidas que protegen a las personas frente a usos indebidos.
Nuestra misión de seguridad
En ElevenLabs creemos firmemente en los enormes beneficios del audio con IA. Nuestra tecnología la usan millones de personas y miles de empresas para hacer accesible contenido e información a quienes antes no podían, crear herramientas educativas atractivas, potenciar experiencias de entretenimiento inmersivas, devolver la voz a quienes la han perdido por accidente o enfermedad, y mucho más.
Como ocurre con toda tecnología transformadora, sabemos que un mal uso puede causar daño. Por eso nos comprometemos a proteger frente al uso indebido de nuestros modelos y productos, especialmente ante intentos de engañar o aprovecharse de otros. Nuestros principios de seguridad guían nuestro trabajo diario y se reflejan en medidas concretas y de varios niveles para prevenir y abordar abusos.
“La seguridad en IA es inseparable de la innovación en ElevenLabs. Garantizar que nuestros sistemas se desarrollan, despliegan y usan de forma segura está en el centro de nuestra estrategia.”

Mati Staniszewski
Co-founder at ElevenLabs
“El volumen de contenido generado con IA seguirá creciendo. Queremos aportar la transparencia necesaria y ayudar a verificar el origen del contenido digital.”

Piotr Dąbkowski
Co-founder at ElevenLabs
Nuestros principios de seguridad
Nuestro programa de seguridad se basa en estos principios:
Nuestras medidas de protección
Buscamos poner las cosas difíciles a quienes intentan usar mal nuestras herramientas, sin afectar la experiencia de quienes las usan de forma legítima. Sabemos que ningún sistema de seguridad es perfecto: a veces, las medidas pueden bloquear por error a usuarios legítimos o no detectar a quienes actúan de mala fe.
Aplicamos un conjunto completo de medidas de protección en un sistema de defensa por capas. Si una capa se supera, las siguientes están preparadas para detectar el mal uso. Nuestros mecanismos de seguridad evolucionan constantemente para adaptarse a los avances en nuestros modelos, productos y tácticas adversarias.
Informar
Adoptamos estándares de terceros como C2PA y apoyamos iniciativas externas para mejorar las herramientas de detección de deepfakes. Hemos publicado nuestro clasificador de audio IA líder en el sector para ayudar a otros a identificar si un contenido se ha generado con ElevenLabs.
Actuar
Quienes incumplen nuestra Política de Uso Prohibido pueden recibir sanciones, incluido el bloqueo en casos graves o reiterados. Si detectamos actividades ilegales, las trasladamos a las autoridades competentes.
Detectar
Supervisamos activamente la plataforma para detectar incumplimientos de nuestra Política de Uso Prohibido, usando clasificadores de IA, revisores humanos e investigaciones internas. Colaboramos con organizaciones externas para identificar posibles abusos y ofrecemos un canal para que cualquiera pueda reportar usos indebidos.
Prevenir
Ponemos a prueba nuestros modelos antes de lanzarlos y revisamos a quienes se registran. También integramos funciones para evitar usos indebidos, como bloquear la clonación de voces de famosos o de alto riesgo y exigir verificación tecnológica para acceder a nuestra herramienta Professional Voice Cloning.
Programa de colaboración en seguridad
Colaboramos con organizaciones líderes para desarrollar soluciones técnicas que detecten deepfakes en tiempo real.
Reportar contenido
Si encuentras contenido que te preocupe y crees que se ha creado con nuestras herramientas, repórtalo aquí.
Política de contenido y usos prohibidos
Descubre qué tipo de contenido y actividades no están permitidas al usar nuestras herramientas.
Clasificador de voz IA de ElevenLabs
Nuestro clasificador de voz IA te permite saber si un audio se ha creado con ElevenLabs.
Coalición para la procedencia y autenticidad del contenido
Un estándar técnico abierto que permite rastrear el origen de los medios.
Iniciativa de autenticidad del contenido
Impulsando la adopción de un estándar abierto del sector para la autenticidad y procedencia del contenido.