Salta al contenuto

In primo piano: ElevenLabs al MIT EmTech Digital

Miglioriamo la sicurezza dell’IA puntando su provenienza dei contenuti, tracciabilità e moderazione

Four people sitting on chairs on a stage during a panel discussion at MIT Technology Review EmTech Digital event.
Last week at the MIT EmTech Digital conference in London, I participated in a panel focused on how business, government, and academia can collaborate to maximize opportunities and manage challenges associated with advanced AI products.

Alongside ElevenLabs, the panel included leaders from the Alan Turing Institute, the Ada Lovelace Institute, and BT, with MIT Technology Review’s Melissa Heikkilä moderating the discussion.

Un approccio a tre pilastri per la sicurezza dell’IA

In ElevenLabs sviluppiamo tecnologie audio IA con attenzione al loro impatto. Nel mio ruolo di responsabile della sicurezza dell’IA, mi concentro su come dare più potere a creator, aziende e utenti, prevenendo gli abusi e scoraggiando comportamenti scorretti. Durante il panel ho illustrato le misure adottate per rendere ElevenLabs uno spazio più sicuro e innovativo, e ho promosso strategie che danno priorità alle sfide della sicurezza nell’IA. Queste strategie includono:

Provenance: involves distinguishing AI-generated content from real content by understanding its origins. Upstream AI detection tools, such as classifiers, are probabilistic models trained to recognize AI-generated outputs. At ElevenLabs, we’ve developed the AI Speech Classifier that lets anyone upload samples to check if they originate from our platform. We’re also collaborating with Loccus to enhance AI content classification capabilities. Classifiers, however, are not a panacea solution for provenance; they have their limitations. To address them, downstream AI detection methods have emerged, including metadata, watermarks, and fingerprinting solutions. We endorse industry-wide efforts such as cryptographically signed metadata standard C2PA, which present the benefit of being open and interoperable and could enable labeling of AI-generated content across main distribution channels like Instagram or Facebook.

Tracciabilità: garantisce che i contenuti generati dall’IA possano essere ricondotti a un singolo utente. Su ElevenLabs, i nostri sistemi ci permettono di collegare i contenuti generati sulla piattaforma all’account di origine, e gli strumenti di clonazione vocale sono accessibili solo agli utenti che hanno verificato il proprio account con dati bancari. Puntare sulla tracciabilità assicura che chiunque utilizzi piattaforme IA possa essere responsabile delle proprie azioni e identificato dalle autorità competenti quando necessario.

Moderation: which involves defining clear policies on acceptable content and use, and preventing users from generating content that does not comply with such policies. At ElevenLabs, we use automated systems to scan, flag, and block inappropriate content. Human moderators review flagged content to ensure consistent policy enforcement. We are continually advancing our moderation technology to prevent the generation of content that could harm public trust or safety. Open source moderation endpoints, such as the one provided by OpenAI, enable easy integration of prompt moderation into any AI applications.

Working together towards a common goal

While we prioritize safe AI development, no company can tackle AI misuse alone. At the panel, we recognized the need for widespread collaboration among tech companies, governments, civil rights groups, and the public to confront social and environmental changes and ensure a secure digital future. At ElevenLabs, we’re dedicated to maintaining open dialogue in our community and supporting initiatives like the Content Authenticity Initiative and the Elections Safety Accord to combat misinformation.

Rendere la sicurezza dell’IA a prova di futuro

Durante il panel, tutti abbiamo concordato che i prodotti IA devono essere sviluppati e utilizzati in modo sicuro. Allo stesso tempo, è importante lasciare spazio a usi creativi e inaspettati. Su ElevenLabs vediamo spesso la nostra piattaforma usata per migliorare l’accessibilità dei contenuti digitali per chi ha bisogno di trascrizioni audio, o per restituire la voce a chi l’ha persa a causa della SLA o di altre condizioni di salute. Per far crescere le applicazioni dell’IA, è fondamentale sensibilizzare sui media generati dall’IA, promuovere un approccio critico ai contenuti digitali, diffondere strumenti per verificarne l’autenticità ed educare sia il pubblico che le istituzioni a un uso etico dell’IA.

Scopri gli articoli del team ElevenLabs

Crea con l'audio IA della massima qualità