Apresentando o Eleven v3 (alpha)

Experimente o v3

Em foco: ElevenLabs no MIT EmTech Digital

Aprimorando a segurança da IA com foco na proveniência de conteúdo, rastreabilidade e moderação

Four people sitting on chairs on a stage during a panel discussion at MIT Technology Review EmTech Digital event.
Last week at the MIT EmTech Digital conference in London, I participated in a panel focused on how business, government, and academia can collaborate to maximize opportunities and manage challenges associated with advanced AI products.

Alongside ElevenLabs, the panel included leaders from the Alan Turing Institute, the Ada Lovelace Institute, and BT, with MIT Technology Review’s Melissa Heikkilä moderating the discussion.

Abordagem tripla para a segurança da IA

Na ElevenLabs, desenvolvemos tecnologia de áudio com IA conscientes de seu impacto. No meu papel supervisionando a Segurança de IA, estou focada em capacitar criadores, empresas e usuários, enquanto prevenimos o uso indevido e desencorajamos maus atores. Durante o painel, descrevi as etapas que tomamos para tornar a ElevenLabs um espaço mais seguro e inovador, e defendi a adoção de estratégias que priorizem os desafios de segurança da IA. Essas estratégias incluem:

Provenance: involves distinguishing AI-generated content from real content by understanding its origins. Upstream AI detection tools, such as classifiers, are probabilistic models trained to recognize AI-generated outputs. At ElevenLabs, we’ve developed the AI Speech Classifier that lets anyone upload samples to check if they originate from our platform. We’re also collaborating with Loccus to enhance AI content classification capabilities. Classifiers, however, are not a panacea solution for provenance; they have their limitations. To address them, downstream AI detection methods have emerged, including metadata, watermarks, and fingerprinting solutions. We endorse industry-wide efforts such as cryptographically signed metadata standard C2PA, which present the benefit of being open and interoperable and could enable labeling of AI-generated content across main distribution channels like Instagram or Facebook.

Rastreabilidade: garante que o conteúdo gerado por IA possa ser rastreado até um usuário individual. Na ElevenLabs, nossos sistemas nos permitem vincular o conteúdo gerado em nossa plataforma à conta de origem, e nossas ferramentas de Voice Cloning são acessíveis apenas para usuários que verificaram suas contas com informações bancárias. O foco na rastreabilidade garante que qualquer pessoa usando plataformas de IA possa ser responsabilizada por suas ações e identificada por autoridades legais quando necessário.

Moderation: which involves defining clear policies on acceptable content and use, and preventing users from generating content that does not comply with such policies. At ElevenLabs, we use automated systems to scan, flag, and block inappropriate content. Human moderators review flagged content to ensure consistent policy enforcement. We are continually advancing our moderation technology to prevent the generation of content that could harm public trust or safety. Open source moderation endpoints, such as the one provided by OpenAI, enable easy integration of prompt moderation into any AI applications.

Working together towards a common goal

While we prioritize safe AI development, no company can tackle AI misuse alone. At the panel, we recognized the need for widespread collaboration among tech companies, governments, civil rights groups, and the public to confront social and environmental changes and ensure a secure digital future. At ElevenLabs, we’re dedicated to maintaining open dialogue in our community and supporting initiatives like the Content Authenticity Initiative and the Elections Safety Accord to combat misinformation.

Preparando a segurança da IA para o futuro

No painel, todos concordamos que os produtos de IA devem ser desenvolvidos e usados com segurança. Ao mesmo tempo, devemos permitir seus usos criativos e inesperados. Na ElevenLabs, frequentemente vemos nossa plataforma sendo usada para melhorar a acessibilidade de conteúdo digital para indivíduos que precisam de transcrições de áudio e para devolver vozes àqueles que as perderam devido a ALS e outras condições de saúde. Para que as aplicações de IA prosperem, é essencial aumentar a conscientização sobre a mídia de IA, incentivar a interação crítica com o conteúdo digital, promover ferramentas para verificar a autenticidade e educar tanto o público quanto as instituições sobre o uso ético da IA.

Explore artigos da equipe ElevenLabs

ElevenLabs

Crie com o áudio IA da mais alta qualidade