Salta al contenido

En foco: ElevenLabs en MIT EmTech Digital

Publicado

EscucharEscucha este artículo

La semana pasada, en la conferencia MIT EmTech Digital en Londres, participé en un panel sobre cómo empresas, gobiernos y universidades pueden colaborar para aprovechar al máximo las oportunidades y gestionar los retos asociados a productos avanzados de IA.

Junto a ElevenLabs, el panel contó con líderes del Alan Turing Institute, el Ada Lovelace Institute y BT, con Melissa Heikkilä de MIT Technology Review moderando la conversación.

Tres pilares para la seguridad en IA

En ElevenLabs desarrollamos tecnología de audio con IA siendo conscientes de su impacto. Como responsable de Seguridad en IA, mi objetivo es dar herramientas a creadores, empresas y usuarios, evitando el mal uso y frenando a quienes actúan de mala fe. Durante el panel, expliqué los pasos que hemos dado para que ElevenLabs sea un espacio más seguro e innovador, y defendí la adopción de estrategias que prioricen los retos de seguridad en IA. Estas estrategias incluyen:

Procedencia: consiste en diferenciar el contenido generado con IA del contenido real, entendiendo su origen. Las herramientas de detección de IA, como los clasificadores, son modelos probabilísticos entrenados para reconocer resultados generados por IA. En ElevenLabs hemos desarrollado el Clasificador de Voz IA, que permite a cualquiera subir muestras y comprobar si proceden de nuestra plataforma. También colaboramos con Loccus para mejorar la clasificación de contenido generado con IA. Sin embargo, los clasificadores no son una solución definitiva para la procedencia; tienen sus limitaciones. Para afrontarlas, han surgido métodos de detección posteriores, como el uso de metadatos, marcas de agua y soluciones de huellas digitales. Apoyamos iniciativas del sector como el estándar de metadatos firmados criptográficamente C2PA, que tiene la ventaja de ser abierto e interoperable y podría permitir etiquetar contenido generado con IA en canales de distribución principales como Instagram o Facebook.

Trazabilidad: garantiza que el contenido generado con IA pueda vincularse a un usuario concreto. En ElevenLabs, nuestros sistemas nos permiten asociar el contenido creado en nuestra plataforma con la cuenta de origen, y nuestras herramientas de clonar voz IA solo están disponibles para usuarios que han verificado su cuenta con información bancaria. El enfoque en la trazabilidad asegura que cualquier persona que use plataformas de IA pueda rendir cuentas por sus acciones y ser identificada por las autoridades si es necesario.

Moderación: implica definir políticas claras sobre el contenido y uso aceptable, y evitar que los usuarios generen contenido que no cumpla con esas normas. En ElevenLabs usamos sistemas automáticos para analizar, marcar y bloquear contenido inapropiado. Moderadores revisan el contenido marcado para asegurar que se cumplan las políticas de forma coherente. Mejoramos constantemente nuestra tecnología de moderación para evitar la generación de contenido que pueda dañar la confianza pública o la seguridad. Las rutas de API de moderación open source, como la que ofrece OpenAI, permiten integrar fácilmente la moderación de prompts en cualquier aplicación de IA.

Colaborar para un objetivo común

Aunque priorizamos el desarrollo seguro de la IA, ninguna empresa puede combatir el mal uso de la IA por sí sola. En el panel, reconocimos la necesidad de una colaboración amplia entre empresas tecnológicas, gobiernos, organizaciones civiles y la sociedad para afrontar los cambios sociales y medioambientales y garantizar un futuro digital seguro. En ElevenLabs, apostamos por mantener un diálogo abierto en nuestra comunidad y apoyar iniciativas como la Content Authenticity Initiative y el Elections Safety Accord para combatir la desinformación.

Preparando la seguridad en IA para el futuro

En el panel estuvimos de acuerdo en que los productos de IA deben desarrollarse y usarse de forma segura. Al mismo tiempo, hay que permitir usos creativos e inesperados. En ElevenLabs vemos a menudo cómo nuestra plataforma ayuda a mejorar la accesibilidad de contenido digital para personas que necesitan transcripciones de audio, y a devolver la voz a quienes la han perdido por ELA u otras enfermedades. Para que las aplicaciones de IA prosperen, es clave concienciar sobre los medios generados con IA, fomentar la interacción crítica con el contenido digital, promover herramientas para verificar la autenticidad y educar tanto al público como a las instituciones sobre el uso ético de la IA.

Artículos relacionados

Crea con el audio IA de la más alta calidad