En el foco: ElevenLabs en MIT EmTech Digital

Mejora de la seguridad de la IA centrándose en la procedencia, la trazabilidad y la moderación del contenido

Four people sitting on chairs on a stage during a panel discussion at MIT Technology Review EmTech Digital event.
La semana pasada, en la conferencia MIT EmTech Digital en Londres, participé en una mesa redonda centrada en cómo las empresas, el gobierno y el mundo académico pueden colaborar para maximizar las oportunidades y gestionar los desafíos asociados con los productos de IA avanzados.

Además de a ElevenLabs, la mesa redonda incluyó a líderes del Instituto Alan Turing, el Instituto Ada Lovelace y BT, con Melissa Heikkilä de MIT Technology Review moderando el debate.

Un enfoque de tres frentes para la seguridad de la IA

En ElevenLabs, desarrollamos tecnología de IA de audio conscientes de su impacto. En mi función de supervisión de la seguridad de la IA, me centro en dar poder a los creadores, las empresas y los usuarios, al mismo tiempo que evito el uso indebido y disuado a las personas malintencionadas. Durante la mesa redonda, describí los pasos que hemos tomado para hacer de ElevenLabs un espacio más seguro e innovador, y abogué por la adopción de estrategias que prioricen abordar los desafíos de seguridad de la IA. Estas estrategias son:

Procedencia: implica distinguir el contenido generado por IA del contenido real mediante la comprensión de sus orígenes. Las herramientas de detección de IA ascendentes, como los clasificadores, son modelos probabilísticos entrenados para reconocer resultados generados por IA. En ElevenLabs, hemos desarrollado el AI Speech Classifier que permite a cualquier persona subir muestras para verificar si se han originado en nuestra plataforma. También estamos colaborando con Loccus para mejorar las capacidades de clasificación de contenido de la IA. Sin embargo, los clasificadores no son una solución infalible para la procedencia; también tienen sus limitaciones. Para abordarlas, han surgido métodos de detección de IA, que incluyen metadatos, marcas de agua y soluciones de huellas dactilares. Respaldamos los esfuerzos de todo el sector, como el estándar de metadatos firmados criptográficamente C2PA, que presenta el beneficio de ser abierto e interoperable y podría permitir el etiquetado de contenido generado por IA en los principales canales de distribución como Instagram o Facebook.

Trazabilidad: garantiza que el contenido generado con IA pueda rastrearse hasta un usuario concreto. En ElevenLabs, nuestros sistemas nos permiten vincular el contenido generado en nuestra plataforma a la cuenta de origen, y nuestras herramientas de clonación de voz son accesibles solo para los usuarios que han verificado sus cuentas con información bancaria. El enfoque en la trazabilidad garantiza que cualquiera que utilice plataformas de IA pueda ser responsable de sus acciones y ser identificado por las autoridades legales cuando sea necesario.

Moderación: implica definir políticas claras sobre el contenido y uso aceptables, y evitar que los usuarios generen contenido que no cumpla con dichas políticas. En ElevenLabs, utilizamos sistemas automatizados para escanear, marcar y bloquear contenido inapropiado. Los moderadores humanos revisan el contenido marcado para garantizar la aplicación coherente de las políticas. Estamos mejorando continuamente nuestra tecnología de moderación para evitar la generación de contenido que pueda dañar la confianza o la seguridad del público. Los puntos finales de moderación de código abierto, como el proporcionado por OpenAI, permiten una fácil integración de la moderación rápida en cualquier aplicación de IA.

Trabajando juntos hacia un objetivo común

Aunque priorizamos el desarrollo seguro de la IA, ninguna empresa puede abordar el uso indebido de la IA ella sola. En la mesa redonda, reconocimos la necesidad de una amplia colaboración entre las empresas tecnológicas, los gobiernos, los grupos de derechos civiles y el público para enfrentar los cambios sociales y ambientales y garantizar un futuro digital seguro. En ElevenLabs, nos dedicamos a mantener un diálogo abierto en nuestra comunidad y a apoyar iniciativas como la Iniciativa de autenticidad de contenido y el Acuerdo de seguridad electoral para combatir la desinformación.

Seguridad de la IA a prueba de futuro

En la mesa redonda, todos estuvimos de acuerdo en que los productos de IA deben desarrollarse y utilizarse de forma segura. Al mismo tiempo, también debemos permitir su uso creativo e inesperado. En ElevenLabs, a menudo vemos que nuestra plataforma se utiliza para mejorar la accesibilidad de contenido digital para personas que necesitan transcripciones de audio y para devolver la voz a quienes la han perdido debido a la ELA y otros problemas de salud. Para que las aplicaciones de IA prosperen, es esencial generar conciencia sobre los medios audiovisuales de IA, alentar la interacción crítica con el contenido digital, promover herramientas para verificar la autenticidad y educar tanto al público como a las instituciones sobre el uso ético de la IA.

Descubre artículos del equipo de ElevenLabs

ElevenLabs

Crea con audio con IA de la más alta calidad

Empieza gratis

¿Ya tienes una cuenta? Inicia sesión