Em foco: ElevenLabs no MIT EmTech Digital
- Publicado
OuvirOuça este artigo
Além da ElevenLabs, o painel contou com líderes do Alan Turing Institute, Ada Lovelace Institute e BT, com mediação de Melissa Heikkilä, da MIT Technology Review.
Três pilares para a segurança em IA
Na ElevenLabs, desenvolvemos tecnologia de áudio com IA sempre atentos ao seu impacto. No meu papel de liderança em Segurança em IA, busco dar autonomia a criadores, empresas e usuários, ao mesmo tempo em que prevenimos usos indevidos e desencorajamos ações mal-intencionadas. Durante o painel, apresentei as medidas que adotamos para tornar a ElevenLabs um ambiente mais seguro e inovador, e defendi estratégias que priorizam o enfrentamento dos desafios de segurança em IA. Entre essas estratégias estão:
Rastreabilidade: garante que o conteúdo gerado por IA possa ser rastreado até o usuário responsável. Na ElevenLabs, nossos sistemas permitem vincular o conteúdo criado na plataforma à conta de origem, e nossas ferramentas de clonagem de voz só estão disponíveis para usuários que verificaram suas contas com informações bancárias. O foco na rastreabilidade garante que qualquer pessoa que use plataformas de IA possa ser responsabilizada por suas ações e identificada pelas autoridades quando necessário.
Trabalhando juntos por um objetivo comum
Mesmo priorizando o desenvolvimento seguro da IA, nenhuma empresa consegue combater o uso indevido sozinha. No painel, reconhecemos a importância da colaboração entre empresas de tecnologia, governos, grupos de direitos civis e a sociedade para enfrentar mudanças sociais e ambientais e garantir um futuro digital seguro. Na ElevenLabs, mantemos o diálogo aberto com nossa comunidade e apoiamos iniciativas como a Content Authenticity Initiative e o Elections Safety Accord para combater a desinformação.
Preparando a segurança em IA para o futuro
No painel, todos concordamos que produtos de IA precisam ser desenvolvidos e usados com segurança. Ao mesmo tempo, é importante permitir usos criativos e inesperados. Na ElevenLabs, vemos nossa plataforma sendo usada para melhorar a acessibilidade de conteúdos digitais para quem precisa de transcrições em áudio e para devolver a voz a pessoas que a perderam por conta de ELA ou outras condições de saúde. Para que as aplicações de IA prosperem, é fundamental aumentar a conscientização sobre mídia criada por IA, incentivar a análise crítica de conteúdos digitais, promover ferramentas de verificação de autenticidade e educar tanto o público quanto as instituições sobre o uso ético da IA.




