
Como a ElevenLabs está se Preparando para as Eleições de 2024
Garantir que nossos sistemas sejam desenvolvidos, implantados e usados com segurança é nossa prioridade
Apresentando o Eleven v3 (alpha)
Experimente o v3Aprimorando a segurança da IA com foco na proveniência de conteúdo, rastreabilidade e moderação
Alongside ElevenLabs, the panel included leaders from the Alan Turing Institute, the Ada Lovelace Institute, and BT, with MIT Technology Review’s Melissa Heikkilä moderating the discussion.
Na ElevenLabs, desenvolvemos tecnologia de áudio com IA conscientes de seu impacto. No meu papel supervisionando a Segurança de IA, estou focada em capacitar criadores, empresas e usuários, enquanto prevenimos o uso indevido e desencorajamos maus atores. Durante o painel, descrevi as etapas que tomamos para tornar a ElevenLabs um espaço mais seguro e inovador, e defendi a adoção de estratégias que priorizem os desafios de segurança da IA. Essas estratégias incluem:
Rastreabilidade: garante que o conteúdo gerado por IA possa ser rastreado até um usuário individual. Na ElevenLabs, nossos sistemas nos permitem vincular o conteúdo gerado em nossa plataforma à conta de origem, e nossas ferramentas de Voice Cloning são acessíveis apenas para usuários que verificaram suas contas com informações bancárias. O foco na rastreabilidade garante que qualquer pessoa usando plataformas de IA possa ser responsabilizada por suas ações e identificada por autoridades legais quando necessário.
While we prioritize safe AI development, no company can tackle AI misuse alone. At the panel, we recognized the need for widespread collaboration among tech companies, governments, civil rights groups, and the public to confront social and environmental changes and ensure a secure digital future. At ElevenLabs, we’re dedicated to maintaining open dialogue in our community and supporting initiatives like the Content Authenticity Initiative and the Elections Safety Accord to combat misinformation.
No painel, todos concordamos que os produtos de IA devem ser desenvolvidos e usados com segurança. Ao mesmo tempo, devemos permitir seus usos criativos e inesperados. Na ElevenLabs, frequentemente vemos nossa plataforma sendo usada para melhorar a acessibilidade de conteúdo digital para indivíduos que precisam de transcrições de áudio e para devolver vozes àqueles que as perderam devido a ALS e outras condições de saúde. Para que as aplicações de IA prosperem, é essencial aumentar a conscientização sobre a mídia de IA, incentivar a interação crítica com o conteúdo digital, promover ferramentas para verificar a autenticidade e educar tanto o público quanto as instituições sobre o uso ético da IA.
Garantir que nossos sistemas sejam desenvolvidos, implantados e usados com segurança é nossa prioridade
Garantindo a integridade das eleições por meio do desenvolvimento responsável de IA