Coup de projecteur : ElevenLabs au MIT EmTech Digital

Améliorer la sécurité de l'IA en mettant l'accent sur la provenance, la traçabilité et la modération du contenu

Four people sitting on chairs on a stage during a panel discussion at MIT Technology Review EmTech Digital event.
La semaine dernière, lors de la conférence MIT EmTech Digital à Londres, j'ai participé à un panel d’experts axé sur la manière dont les entreprises, le gouvernement et le monde universitaire peuvent collaborer pour maximiser les opportunités et gérer les défis associés aux produits d'IA avancés.

Hormis ElevenLabs, le panel comprenait des dirigeants de l'Alan Turing Institute, de l'Ada Lovelace Institute et de BT, avec Melissa Heikkilä de la MIT Technology Review comme modératrice des débats.

Une approche de la sécurité de l’IA en trois volets

Chez ElevenLabs, nous développons une technologie audio basée sur l’IA audio consciente de son impact. Dans mon rôle de supervision de la sécurité de l'IA, je m'efforce d’accroître les moyens des créateurs, des entreprises et des utilisateurs, tout en prévenant les utilisations abusives et malveillantes. Lors du panel, j'ai décrit les mesures que nous avons prises pour faire d'ElevenLabs un espace plus sûr et plus innovant, et j'ai plaidé en faveur de l'adoption de stratégies visant à donner la priorité aux défis liés à la sécurité de l'IA. Ces stratégies comprennent :

Provenance :Elle consiste à distinguer le contenu généré par l'IA du contenu réel en comprenant ses origines. Les outils de détection d’IA installés en amont, tels que les classificateurs, sont des modèles probabilistes entraînés pour reconnaître les sorties générées par IA. Chez ElevenLabs, nous avons développé l'IA Speech Classifier. Il permet à n’importe quel utilisateur de télécharger des échantillons pour vérifier s'ils proviennent ou non de notre plateforme. Nous collaborons également avec Loccus pour améliorer les capacités de classification des contenus basés sur l'IA. Les classificateurs ne constituent toutefois pas une solution miracle en matière de provenance ; ils ont leurs limites. Pour y remédier, des méthodes de détection d’IA en aval ont vu le jour, notamment des solutions de métadonnées, de filigranes et d’empreintes digitales. Nous soutenons les efforts déployés à l'échelle de l'industrie, tels que la norme de métadonnées signées cryptographiquement C2PA. Elle présente l'avantage d'être ouverte et interopérable, et pourrait permettre l'étiquetage du contenu généré par l'IA sur les principaux canaux de distribution comme Instagram ou Facebook.

Traçabilité : Elle garantit que le contenu généré par l'IA peut être retracé jusqu'à un utilisateur distinct. Chez ElevenLabs, nos systèmes nous permettent de lier le contenu généré sur notre plateforme au compte d'origine, et nos outils de clonage vocal ne sont accessibles qu'aux utilisateurs dont les comptes ont été vérifié avec des informations bancaires. L’accent mis sur la traçabilité garantit que toute personne utilisant des plateformes d’IA peut être tenue responsable de ses actes, et identifiée par les autorités judiciaires si nécessaire.

Modération : Elle consiste à définir des politiques claires sur des contenus et sur un usage acceptables, ainsi qu’à empêcher les utilisateurs de générer un contenu qui ne respecte pas ces politiques. Chez ElevenLabs, nous utilisons des systèmes automatisés pour analyser, signaler et bloquer le contenu inapproprié. Les modérateurs humains examinent le contenu signalé pour garantir une application cohérente des politiques. Nous perfectionnons continuellement notre technologie de modération pour empêcher la génération de contenus susceptibles de nuire à la confiance ou à la sécurité du public. Les points de terminaison de modération open source, tels que celui fourni par OpenAI, facilite l’intégration d’une modération rapide à toutes les applications d'IA.

Collaborer à un objectif commun

Bien que nous accordions la priorité au développement d’une IA sûre, aucune entreprise ne peut lutter seule contre l’utilisation abusive de l’IA. Lors du panel, nous avons reconnu la nécessité d’une collaboration généralisée entre les entreprises technologiques, les gouvernements, les groupes de défense des droits civiques et le public, en vue de faire face aux changements sociaux et environnementaux et de garantir un avenir numérique sûr. Chez ElevenLabs, nous nous engageons à maintenir un dialogue ouvert au sein de notre communauté, ainsi qu’à soutenir des initiatives telles que la Content Authenticity Initiative et l'Elections Safety Accord pour lutter contre la désinformation.

Sécuriser l'IA pour l'avenir

Lors du panel, nous avons tous convenu que les produits d’IA doivent être développés et utilisés de manière sûre. Dans le même temps, nous devons aussi permettre leur utilisation de manière aussi créative qu’inattendue. Chez ElevenLabs, nous constatons souvent que notre plateforme est utilisée pour améliorer l'accessibilité du contenu numérique à des personnes ayant besoin de transcriptions audio, et pour redonner la voix à ceux qui l'ont perdue pour diverses raisons de santé, notamment la SLA. Pour que les applications d’IA prospèrent, il est essentiel de sensibiliser aux médias d’IA, d’encourager une ’interaction critique avec le contenu numérique, de promouvoir des outils de vérification de l’authenticité, et d’éduquer le public et les institutions quant à une utilisation éthique de l’IA.

En voir plus

ElevenLabs

Créez avec l'audio AI de la plus haute qualité.

Se lancer gratuitement

Vous avez déjà un compte ? Se connecter