En foco: ElevenLabs en MIT EmTech Digital
- Publicado
EscucharEscucha este artículo
Junto a ElevenLabs, el panel contó con líderes del Alan Turing Institute, el Ada Lovelace Institute y BT, con Melissa Heikkilä de MIT Technology Review moderando la conversación.
Tres pilares para la seguridad en IA
En ElevenLabs desarrollamos tecnología de audio con IA siendo conscientes de su impacto. Como responsable de Seguridad en IA, mi objetivo es dar herramientas a creadores, empresas y usuarios, evitando el mal uso y frenando a quienes actúan de mala fe. Durante el panel, expliqué los pasos que hemos dado para que ElevenLabs sea un espacio más seguro e innovador, y defendí la adopción de estrategias que prioricen los retos de seguridad en IA. Estas estrategias incluyen:
Trazabilidad: garantiza que el contenido generado con IA pueda vincularse a un usuario concreto. En ElevenLabs, nuestros sistemas nos permiten asociar el contenido creado en nuestra plataforma con la cuenta de origen, y nuestras herramientas de clonar voz IA solo están disponibles para usuarios que han verificado su cuenta con información bancaria. El enfoque en la trazabilidad asegura que cualquier persona que use plataformas de IA pueda rendir cuentas por sus acciones y ser identificada por las autoridades si es necesario.
Colaborar para un objetivo común
Aunque priorizamos el desarrollo seguro de la IA, ninguna empresa puede combatir el mal uso de la IA por sí sola. En el panel, reconocimos la necesidad de una colaboración amplia entre empresas tecnológicas, gobiernos, organizaciones civiles y la sociedad para afrontar los cambios sociales y medioambientales y garantizar un futuro digital seguro. En ElevenLabs, apostamos por mantener un diálogo abierto en nuestra comunidad y apoyar iniciativas como la Content Authenticity Initiative y el Elections Safety Accord para combatir la desinformación.
Preparando la seguridad en IA para el futuro
En el panel estuvimos de acuerdo en que los productos de IA deben desarrollarse y usarse de forma segura. Al mismo tiempo, hay que permitir usos creativos e inesperados. En ElevenLabs vemos a menudo cómo nuestra plataforma ayuda a mejorar la accesibilidad de contenido digital para personas que necesitan transcripciones de audio, y a devolver la voz a quienes la han perdido por ELA u otras enfermedades. Para que las aplicaciones de IA prosperen, es clave concienciar sobre los medios generados con IA, fomentar la interacción crítica con el contenido digital, promover herramientas para verificar la autenticidad y educar tanto al público como a las instituciones sobre el uso ético de la IA.




