Presentamos Eleven v3 Alpha

Prueba v3

Actualización sobre nuestra preparación para las elecciones

A lo largo de 2024, un año electoral crucial en países de todo el mundo, hemos tomado medidas concretas diseñadas para prevenir el uso indebido de nuestras herramientas.

En ElevenLabs, nos comprometemos a hacer que el contenido sea accesible y atractivo en cualquier idioma, voz y sonido. Creemos profundamente en el poder de nuestra tecnología para crear un mundo más conectado e informado y, a su vez, ser una fuerza para el bien del proceso democrático. Hemos permitido a los legisladores recuperar sus voces, lo que les ayuda a seguir luchando por sus electores y por los temas que les interesan. Hemos hecho lo mismo para los defensores de la causa, apoyando sus esfuerzos por generar cambios y mejorar vidas. Y nuestro trabajo para eliminar las barreras al conocimiento, la participación y la comunidad apenas ha comenzado. 

También creemos que es responsabilidad de todos nosotros (industria, gobiernos, sociedad civil y personas) no solo promover el proceso democrático, sino también protegerlo. A lo largo de 2024En un año electoral crucial en países de todo el mundo, hemos tomado medidas concretas destinadas a evitar el uso indebido de nuestras herramientas. De cara a las elecciones estadounidenses del 5 de noviembre, a continuación se incluye una actualización sobre nuestros esfuerzos.

Políticas

Hemos revisado nuestra Política de uso prohibido para fortalecer y aclarar nuestras reglas respecto al uso de nuestras herramientas en el contexto de las elecciones.

  • Prohibición de hacer campaña y suplantación de candidatos. Prohibimos estrictamente el uso de nuestras herramientas para realizar campañas políticas, incluida la promoción o defensa de un candidato, tema o posición en particular, o la solicitud de votos o contribuciones financieras. También prohibimos el uso de nuestras herramientas para imitar las voces de candidatos políticos y funcionarios gubernamentales electos.
  • Prohibición de la supresión del voto y de las perturbaciones del proceso electoral. Prohibimos el uso de nuestras herramientas para incitar, participar o facilitar la supresión de votantes u otras perturbaciones de los procesos electorales o cívicos. Esto incluye la creación, distribución o facilitación de la difusión de información engañosa.

Prevención

Hemos mejorado nuestras medidas de seguridad para evitar el uso indebido de nuestras herramientas en el contexto de las elecciones. 

  • Selección de usuarios. Todos los usuarios de nuestras herramientas de clonación de voz deben proporcionar información de contacto y de pago, lo que nos ayuda a bloquear cuentas vinculadas a actividades fraudulentas o regiones geográficas de alto en el momento de registrarse.
  • Voces prohibidas. Nuestra tecnología de voces prohibidas impide que se generen las voces de cientos de candidatos, funcionarios electos, otras figuras políticas y celebridades. Hemos ampliado continuamente esta protección para aumentar su eficacia y supervisamos y tomamos medidas de cumplimiento contra los usuarios que intentan generar voces bloqueadas.

Detección y aplicación de la ley

Para complementar nuestras medidas preventivas, hemos mejorado nuestras capacidades de detección y aplicación de la ley.

  • Supervisión por mal uso. Nuestros clasificadores patentados mejorados, incluido uno diseñado específicamente para identificar contenido político, junto con la moderación automatizada y los revisores humanos, nos ayudan a detectar contenido que viola nuestra condiciones. También trabajamos con equipos de inteligencia sobre amenazas externas que brindan información sobre posibles usos indebidos destinados a perturbar las elecciones, y hemos establecido canales de intercambio de información con socios gubernamentales y de la industria.
  • Fuerte aplicación. Cuando identificamos un uso indebido, tomamos medidas decisivas, que incluyen eliminar voces, supervisar de cerca a los usuarios, prohibirles el acceso a nuestra plataforma y, si corresponde, informar a las autoridades. Si encuentras contenido problemático que creas que pueda tener su origen en ElevenLabs, dínoslo.
  • Apoyo a los esfuerzos del gobierno. Creemos que la acción del gobierno es fundamental para disuadir el uso indebido. En julio, estábamos orgullosos de anunciar nuestro apoyo a la Ley para proteger las elecciones de la IA engañosa, legislación bipartidista liderada por los senadores Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper y Marsha Blackburn, que responsabilizaría a las personas malintencionadas que usan IA en anuncios de campaña para engañar a los votantes. Seguiremos trabajando con los responsables políticos de Estados Unidos y de todo el mundo en iniciativas de seguridad de la IA, incluidas aquellas relacionadas con las elecciones.

Procedencia y transparencia

Permitir la identificación clara del contenido generado por IA, incluso mediante una amplia colaboración, sigue siendo un aspecto clave de los esfuerzos de desarrollo responsable de ElevenLabs.

  • AI Speech Classifier. Nuestro AI Speech Classifier, disponible para todos desde junio de 2023, permite a cualquier persona cargar una muestra de audio para analizarla y determinar si se ha originado en ElevenLabs. Al hacer pública esta herramienta, pretendemos limitar la propagación de desinformación haciendo que sea más fácil identificar la fuente del audio.
  • Colaboración con la industria. Cuando se trata de la procedencia y la transparencia del contenido de IA, no podemos hacerlo solos: es necesario un esfuerzo de todo el sector. Por eso somos parte de la Iniciativa de autenticidad de contenido (CAI), que reúne a importantes empresas de medios y tecnología para desarrollar estándares de procedencia. A través de la Coalición para la procedencia y autenticidad del contenido (C2PA)Estamos implementando estos estándares incorporando metadatos firmados criptográficamente en el audio generado en nuestra plataforma. Esto garantiza que los canales de distribución de contenido que adoptan las herramientas de CAI, como las principales plataformas de redes sociales, puedan reconocer nuestro audio como generado por IA.
  • Admite herramientas de detección de terceros. Trabajamos con empresas de seguridad de IA de terceros para mejorar sus herramientas de identificación de contenido generado por IA, incluidos los deepfakes relacionados con las elecciones. En julio, iniciamos una colaboración con Reality Defender , una empresa de ciberseguridad enfocada en la detección de deepfakes, y le proporcionamos acceso a nuestros modelos y datos para fortalecer sus herramientas de detección. Nuestra colaboración ayuda a los clientes de Reality Defender, incluidos los gobiernos y grandes empresas, a detectar amenazas generadas por IA en tiempo real, lo que protege a las personas de todo el mundo de la desinformación y el fraude sofisticado. También participamos en otros proyectos académicos y comerciales, incluidas iniciativas de investigación en la Escuela de Información de UC Berkeley, para avanzar en la detección de contenido mediante IA.

En los próximos días y semanas, seguiremos aprendiendo y perfeccionando estas medidas de seguridad. Reconocemos que no podemos prever todas las formas en que se pueden utilizar nuestras herramientas. Pero seguiremos tomando medidas enérgicas para prevenir el abuso, mientras implementamos nuestra tecnología para crear un mundo más conectado e informado.

Explora más

ElevenLabs

Crea con audio con IA de la más alta calidad

Empieza gratis

¿Ya tienes una cuenta? Inicia sesión

ElevenLabs: actualización sobre nuestra preparación para las elecciones | ElevenLabs