Black Friday

Canjear

Una actualización sobre nuestra preparación para las elecciones

A lo largo de 2024, un año electoral crucial en países de todo el mundo, hemos tomado medidas concretas para prevenir el uso indebido de nuestras herramientas

En ElevenLabs, nos comprometemos a hacer que el contenido sea accesible y atractivo en cualquier idioma, voz y sonido. Creemos profundamente en el poder de nuestra tecnología para crear un mundo más conectado e informado y, a su vez, ser una fuerza positiva para el proceso democrático. Hemosayudado a legisladores a recuperar sus voces, ayudándoles a seguir luchando por sus electores y los temas que les importan. Hemos hecho lo mismo pordefensores, apoyando sus esfuerzos para lograr cambios y mejorar vidas. Y nuestro trabajo para eliminar barreras al conocimiento, la participación y la comunidad apenas comienza.

También creemos que es responsabilidad de todos nosotros – industria, gobiernos, sociedad civil e individuos – no solo promover el proceso democrático, sino protegerlo.A lo largo de 2024, un año electoral crucial en países de todo el mundo, hemos tomado medidas concretas para prevenir el uso indebido de nuestras herramientas. Antes de las elecciones del 5 de noviembre en EE.UU., aquí tienes una actualización sobre nuestros esfuerzos.

Políticas

Hemos revisado nuestraPolítica de Uso Prohibido para fortalecer y aclarar nuestras reglas sobre el uso de nuestras herramientas en el contexto de las elecciones.

  • Prohibición de campañas y suplantación de candidatos.Prohibimos estrictamente el uso de nuestras herramientas para campañas políticas, incluyendo promover o abogar por un candidato, tema o posición en particular, o solicitar votos o contribuciones financieras. También prohibimos el uso de nuestras herramientas para imitar las voces de candidatos políticos y funcionarios gubernamentales electos.
  • Prohibición de la supresión de votantes y las interrupciones del proceso electoral.Prohibimos el uso de nuestras herramientas para incitar, participar o facilitar la supresión de votantes u otras interrupciones de procesos electorales o cívicos. Esto incluye crear, distribuir o facilitar la difusión de información engañosa.

Prevención

Hemos mejorado nuestras medidas de seguridad para prevenir el uso indebido de nuestras herramientas en el contexto de las elecciones.

  • Filtrado de usuarios.Todos los usuarios de nuestras herramientas de Voice Cloning deben proporcionar información de contacto y pago, lo que nos ayuda a bloquear cuentas vinculadas a actividades fraudulentas o geografías de alto riesgo al registrarse.
  • Voces “No-Go”.Nuestra tecnología No-Go Voice bloquea las voces de cientos de candidatos, funcionarios electos, otras figuras políticas y celebridades para que no sean generadas. Hemos ampliado continuamente esta medida de seguridad para aumentar su efectividad, y monitoreamos y tomamos acciones contra los usuarios que intentan generar voces bloqueadas.

Detección y Aplicación

Para complementar nuestras medidas preventivas, hemos intensificado nuestras capacidades de detección y aplicación.

  • Monitoreo de uso indebido.Nuestros clasificadores propietarios mejorados, incluyendo uno diseñado específicamente para identificar contenido político, junto con la moderación automatizada y revisores humanos, nos ayudan a detectar contenido que viola nuestros términos. También trabajamos con equipos externos de inteligencia de amenazas que proporcionan información sobre posibles usos indebidos destinados a interrumpir elecciones, y hemos establecido canales de intercambio de información con socios gubernamentales e industriales.
  • Aplicación estricta.Cuando identificamos un uso indebido, tomamos medidas decisivas, incluyendo eliminar voces, poner a los usuarios en período de prueba, prohibir a los usuarios en nuestra plataforma y, si es apropiado, informar a las autoridades. Si encuentras contenido problemático que crees que puede haber originado de ElevenLabs, por favorháznoslo saber.
  • Apoyo a los esfuerzos gubernamentales.Creemos que la acción gubernamental es crucial para disuadir el uso indebido. En julio, nos enorgullecióanunciar nuestro apoyo a laLey para Proteger las Elecciones de la IA Engañosa, una legislación bipartidista liderada por los senadores Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper y Marsha Blackburn, que responsabilizaría a los actores malintencionados que usan IA en anuncios de campaña para engañar a los votantes. Continuaremos trabajando con legisladores en EE.UU. y en todo el mundo en iniciativas de seguridad de IA, incluidas las relacionadas con elecciones.

Procedencia y Transparencia

Habilitar la identificación clara del contenido generado por IA, incluso a través de una amplia colaboración, sigue siendo un aspecto clave de los esfuerzos de desarrollo responsable de ElevenLabs.

  • Clasificador de Voz IA.NuestroClasificador de Voz IA, disponible para el público desdejunio de 2023, permite a cualquiera subir una muestra de audio para analizar si se originó en ElevenLabs. Al hacer pública esta herramienta, nuestro objetivo es limitar la difusión de desinformación facilitando la identificación de la fuente del audio.
  • Colaboración con la industria.Cuando se trata de la procedencia y transparencia del contenido de IA, no podemos hacerlo solos: es necesario un esfuerzo a nivel de toda la industria. Por eso formamos parte de laIniciativa de Autenticidad de Contenidos (CAI), que une a grandes empresas de medios y tecnología para desarrollar estándares de procedencia. A través de laCoalición para la Procedencia y Autenticidad del Contenido (C2PA), estamos implementando estos estándares al incrustar metadatos firmados criptográficamente en el audio generado en nuestra plataforma. Esto asegura que los canales de distribución de contenido que adopten las herramientas de CAI, como las principales plataformas de redes sociales, puedan reconocer nuestro audio como generado por IA.
  • Apoyo a herramientas de detección de terceros.Trabajamos con empresas de seguridad de IA de terceros para mejorar sus herramientas de identificación de contenido generado por IA, incluidos los deepfakes relacionados con elecciones. En julio,nos asociamos conReality Defender – una empresa de ciberseguridad centrada en la detección de deepfakes – proporcionando acceso a nuestros modelos y datos para fortalecer sus herramientas de detección. Nuestra asociación ayuda a los clientes de Reality Defender, incluidos gobiernos y grandes empresas, a detectar amenazas generadas por IA en tiempo real, protegiendo a personas de todo el mundo de la desinformación y el fraude sofisticado. También participamos en otros proyectos académicos y comerciales, incluidas iniciativas de investigación en la Escuela de Información de UC Berkeley, para avanzar en la detección de contenido de IA.

En los próximos días y semanas, seguiremos aprendiendo y refinando estas medidas de seguridad. Reconocemos que no podemos prever todas las formas en que se pueden usar nuestras herramientas. Pero continuaremos tomando medidas contundentes para prevenir el abuso, mientras desplegamos nuestra tecnología para crear un mundo más conectado e informado.

Descubre artículos del equipo de ElevenLabs

Impact
Sophia Noel and Yvonne Johnson at the 11.11 summit

Yvonne Johnson at the 11/11 ElevenLabs Summit—An authentic Voice for Change

On November 11, 2025, San Francisco became the epicentre of innovation as the ElevenLabs 11/11 Summit brought together leaders, creators, and advocates shaping the future of voice-first technology. Among the presenters was Yvonne Johnson, a passionate Motor Neurone Disease (ALS) advocate, who lives with ALS herself and has lost her natural voice to this condition.

ElevenLabs

Crea con audio con IA de la más alta calidad

Empieza gratis

¿Ya tienes una cuenta? Inicia sesión