Estamos comprometidos a garantizar el uso seguro de nuestra tecnología de audio IA líder.
El audio creado con IA ayuda a superar barreras de idioma y comunicación, allanando el camino para un mundo más conectado, creativo y productivo. También puede atraer a actores malintencionados. Nuestra misión es construir y desplegar los mejores productos de audio IA mientras mejoramos continuamente las salvaguardas para prevenir su mal uso.
“En ElevenLabs, la seguridad de la IA no se puede separar de la innovación. Nuestra estrategia sigue centrada en garantizar que nuestros sistemas se desarrollen, implementen y utilicen de forma segura.”
Mati Staniszewski
Co-founder at ElevenLabs
Nuestra misión es hacer que el contenido sea accesible en cualquier idioma y en cualquier voz.
Somos un proveedor de audio IA de confianza para millones de usuarios en todo el mundo, así como para empresas líderes de publicación y medios, incluyendo:
Seguridad de ElevenLabs en la práctica
Nos guiamos por tres principios para gestionar el riesgo mientras aseguramos que el audio IA beneficie a las personas en todo el mundo: moderación, responsabilidad, y procedencia.
Moderación
Monitorizamos activamente el contenido generado con nuestra tecnología.

Moderación automatizada. Nuestros sistemas automatizados escanean el contenido en busca de violaciones de nuestras políticas, bloqueándolos directamente o marcándolos para revisión.
Moderación humana. Un equipo creciente de moderadores revisa el contenido marcado y nos ayuda a asegurar que nuestras políticas se adopten de manera consistente.
Voces prohibidas. Aunque nuestras políticas prohíben las imitaciones, usamos una herramienta de seguridad adicional para detectar y prevenir la creación de contenido con voces consideradas de alto riesgo.
voiceCAPTCHA. Desarrollamos una tecnología de verificación de voz propia para minimizar el uso no autorizado de herramientas de clonación de voz, lo que asegura que los usuarios de nuestra herramienta de clonación de voz de alta fidelidad solo puedan clonar su propia voz.
Política de contenidos y usos prohibidos
Obtén información sobre los tipos de contenidos y actividades que no están permitidos al utilizar nuestras herramientas.
Responsabilidad
Creemos que el mal uso debe tener consecuencias.

Trazabilidad. Cuando un actor malintencionado hace un mal uso de nuestras herramientas, queremos saber quiénes son. Nuestros sistemas nos permiten rastrear el contenido generado hasta las cuentas de origen y nuestras herramientas de clonación de voz solo están disponibles para usuarios que hayan verificado sus cuentas con detalles de facturación.
Prohibiciones. Queremos que los actores malintencionados sepan que no tienen lugar en nuestra plataforma. Prohibimos permanentemente a los usuarios que violan nuestras políticas.
Colaboración con las fuerzas del orden. Cooperaremos con las autoridades y, en casos apropiados, informaremos o divulgaremos información sobre contenido o actividad ilegal.
Denuncia contenido
Si encuentras contenido que genera inquietudes y crees que se ha creado con nuestras herramientas, indícalo aquí.
Procedencia
Creemos que deberías saber si el audio es generado por IA.

AI Speech Classifier. Desarrollamos una herramienta de detección altamente precisa que mantiene un 99% de precisión y un 80% de recall si la muestra no fue modificada y permite a cualquiera verificar si un archivo de audio podría haber sido generado con nuestra tecnología.
Estándares de detección de IA. Creemos que las herramientas de detección de IA posteriores, como metadatos, marcas de agua y soluciones de huellas digitales, son esenciales. Apoyamos la adopción generalizada de estándares de la industria para la procedencia a través de C2PA.
Colaboración. Invitamos a otras empresas de IA, academia y legisladores a trabajar juntos en el desarrollo de métodos de detección de contenido de IA a nivel de la industria. Somos parte de la Iniciativa de Autenticidad del Contenido y colaboramos con distribuidores de contenido y la sociedad civil para establecer la transparencia del contenido de IA. También apoyamos los esfuerzos gubernamentales en seguridad de IA y somos miembros del Consorcio del Instituto de Seguridad de IA del Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST).
Clasificador de voz de IA de ElevenLabs
Nuestro clasificador de voz de IA te permite detectar si un fragmento de audio se ha creado con ElevenLabs.
Coalición para la Procedencia y Autenticidad del Contenido
Estándar técnico abierto que ofrece la posibilidad de conocer el origen de los medios audiovisuales.
Iniciativa de Autenticidad de Contenido
Fomento de la adopción de un estándar abierto del sector para determinar la autenticidad y procedencia del contenido.
“El volumen de contenido generado con IA seguirá creciendo. Queremos proporcionar la transparencia necesaria y ayudar a verificar el origen del contenido digital.”
Piotr Dąbkowski
Co-founder at ElevenLabs
Enfoque especial: elecciones en 2024
La mitad del mundo votará en 2024. Para prepararnos para las elecciones de este año, nos centramos en avanzar en el uso seguro y justo de las voces IA.
Para facilitar estos esfuerzos, somos signatarios inaugurales del Tech Accord sobre Seguridad Electoral, que reúne a líderes de la industria como Amazon, Google, Meta, Microsoft, OpenAI y ElevenLabs, entre otros, en un esfuerzo concertado para proteger las elecciones globales del mal uso de la IA.
“A medida que la IA se convierte en parte de nuestra vida diaria, nos comprometemos a crear productos fiables y a colaborar con socios en el desarrollo de medidas de seguridad contra su uso indebido.”
Aleksandra Pedraszewska
AI Safety at ElevenLabs