Presentamos Eleven v3 Alpha

Prueba v3

Estamos comprometidos a garantizar el uso seguro de nuestra tecnología de audio IA líder.

El audio creado con IA ayuda a superar barreras de idioma y comunicación, allanando el camino para un mundo más conectado, creativo y productivo. También puede atraer a actores malintencionados. Nuestra misión es construir y desplegar los mejores productos de audio IA mientras mejoramos continuamente las salvaguardas para prevenir su mal uso.

En ElevenLabs, la seguridad de la IA no se puede separar de la innovación. Nuestra estrategia sigue centrada en garantizar que nuestros sistemas se desarrollen, implementen y utilicen de forma segura.
A young man smiling while working at a computer in an office setting.

Mati Staniszewski

Co-founder at ElevenLabs

Nuestra misión es hacer que el contenido sea accesible en cualquier idioma y en cualquier voz.

Somos un proveedor de audio IA de confianza para millones de usuarios en todo el mundo, así como para empresas líderes de publicación y medios, incluyendo:

The Washington Post Logo
CNN logo in red text
HarperCollins Publishers logo with a flame and water icon.

Seguridad de ElevenLabs en la práctica

Nos guiamos por tres principios para gestionar el riesgo mientras aseguramos que el audio IA beneficie a las personas en todo el mundo: moderación, responsabilidad, y procedencia.

Moderación

Monitorizamos activamente el contenido generado con nuestra tecnología.

Blurred yellow text box with a warning icon at the bottom left corner.

Moderación automatizada. Nuestros sistemas automatizados escanean el contenido en busca de violaciones de nuestras políticas, bloqueándolos directamente o marcándolos para revisión.

Moderación humana. Un equipo creciente de moderadores revisa el contenido marcado y nos ayuda a asegurar que nuestras políticas se adopten de manera consistente.

Voces prohibidas. Aunque nuestras políticas prohíben las imitaciones, usamos una herramienta de seguridad adicional para detectar y prevenir la creación de contenido con voces consideradas de alto riesgo.

voiceCAPTCHA. Desarrollamos una tecnología de verificación de voz propia para minimizar el uso no autorizado de herramientas de clonación de voz, lo que asegura que los usuarios de nuestra herramienta de clonación de voz de alta fidelidad solo puedan clonar su propia voz.

Responsabilidad

Creemos que el mal uso debe tener consecuencias.

A digital interface showing a microphone icon, a folder icon, and a green circular pattern with a checkmark.

Trazabilidad. Cuando un actor malintencionado hace un mal uso de nuestras herramientas, queremos saber quiénes son. Nuestros sistemas nos permiten rastrear el contenido generado hasta las cuentas de origen y nuestras herramientas de clonación de voz solo están disponibles para usuarios que hayan verificado sus cuentas con detalles de facturación.

Prohibiciones. Queremos que los actores malintencionados sepan que no tienen lugar en nuestra plataforma. Prohibimos permanentemente a los usuarios que violan nuestras políticas.

Colaboración con las fuerzas del orden. Cooperaremos con las autoridades y, en casos apropiados, informaremos o divulgaremos información sobre contenido o actividad ilegal.

Procedencia

Creemos que deberías saber si el audio es generado por IA.

Abstract black and white wavy lines on a light background.

AI Speech Classifier. Desarrollamos una herramienta de detección altamente precisa que mantiene un 99% de precisión y un 80% de recall si la muestra no fue modificada y permite a cualquiera verificar si un archivo de audio podría haber sido generado con nuestra tecnología.

Estándares de detección de IA. Creemos que las herramientas de detección de IA posteriores, como metadatos, marcas de agua y soluciones de huellas digitales, son esenciales. Apoyamos la adopción generalizada de estándares de la industria para la procedencia a través de C2PA.

Colaboración. Invitamos a otras empresas de IA, academia y legisladores a trabajar juntos en el desarrollo de métodos de detección de contenido de IA a nivel de la industria. Somos parte de la Iniciativa de Autenticidad del Contenido y colaboramos con distribuidores de contenido y la sociedad civil para establecer la transparencia del contenido de IA. También apoyamos los esfuerzos gubernamentales en seguridad de IA y somos miembros del Consorcio del Instituto de Seguridad de IA del Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST).

El volumen de contenido generado con IA seguirá creciendo. Queremos proporcionar la transparencia necesaria y ayudar a verificar el origen del contenido digital.
Young man wearing a white T-shirt with "ElevenLabs" logo, indoors.

Piotr Dąbkowski

Co-founder at ElevenLabs

Enfoque especial: elecciones en 2024

La mitad del mundo votará en 2024. Para prepararnos para las elecciones de este año, nos centramos en avanzar en el uso seguro y justo de las voces IA.

Para facilitar estos esfuerzos, somos signatarios inaugurales del Tech Accord sobre Seguridad Electoral, que reúne a líderes de la industria como Amazon, Google, Meta, Microsoft, OpenAI y ElevenLabs, entre otros, en un esfuerzo concertado para proteger las elecciones globales del mal uso de la IA.

A medida que la IA se convierte en parte de nuestra vida diaria, nos comprometemos a crear productos fiables y a colaborar con socios en el desarrollo de medidas de seguridad contra su uso indebido.
A woman with shoulder-length blonde hair smiling at the camera against a plain light gray background.

Aleksandra Pedraszewska

AI Safety at ElevenLabs

Lee más sobre nuestros esfuerzos de seguridad

Cumplimiento

Si encuentras contenido que viola nuestra Política de Contenido y Usos Prohibidos y crees que fue creado en nuestra plataforma, por favor repórtalo aquí. Los usuarios de la UE pueden notificarnos sobre contenido que crean que puede constituir contenido ilegal (de acuerdo con el Artículo 16 de la Ley de Servicios Digitales de la UE) aquí. También hemos designado un único punto de contacto para los usuarios de la UE (de acuerdo con el Artículo 12 de la Ley de Servicios Digitales) donde pueden contactarnos sobre otras preocupaciones aquí.

Como parte de nuestro compromiso con la IA responsable, ElevenLabs ha establecido políticas sobre la cooperación con las autoridades gubernamentales, incluidas las agencias de aplicación de la ley. En casos apropiados, esto puede incluir informar o divulgar información sobre contenido prohibido, así como responder a consultas legales de las fuerzas del orden y otras entidades gubernamentales. Las autoridades de aplicación de la ley pueden enviar consultas legales contactando a nuestro equipo legal aquí. De acuerdo con el Artículo 11 de la Ley de Servicios Digitales de la UE, las autoridades de aplicación de la ley en la UE pueden dirigir solicitudes de procesos legales no urgentes a ElevenLabs Sp. z o.o. enviando su Solicitud DSA a través de un formulario aquí, que fue designado como el único punto de contacto para comunicaciones directas con la Comisión Europea, las Autoridades de los Estados Miembros y la Junta Europea de Servicios Digitales. Las autoridades pueden comunicarse con Eleven Labs en inglés y polaco. Cuando lo requiera la ley aplicable, los procesos legales internacionales pueden requerir la presentación a través de un Tratado de Asistencia Legal Mutua.

Si eres un usuario de la UE, tienes seis meses para apelar una acción que ElevenLabs haya tomado contra tu contenido o cuenta. Si tu cuenta o contenido ha sido restringido, puedes presentar tu apelación respondiendo a la notificación que recibiste. Si deseas apelar el resultado de tu informe de contenido ilegal DSA, por favor usa el formulario aquí

Los usuarios de la UE también pueden contactar con organismos certificados de resolución de disputas fuera de los tribunales para ayudar a resolver sus disputas relacionadas con restricciones de contenido o cuenta, así como apelaciones relacionadas. Las decisiones de los organismos de resolución de disputas fuera de los tribunales no son vinculantes.
ElevenLabs

Crea con audio con IA de la más alta calidad

Empieza gratis

¿Ya tienes una cuenta? Inicia sesión