Pular para o conteúdo

Em foco: ElevenLabs no MIT EmTech Digital

Publicado

OuvirOuça este artigo

Na semana passada, durante a conferência MIT EmTech Digital em Londres, participei de um painel sobre como empresas, governos e universidades podem colaborar para aproveitar oportunidades e lidar com desafios relacionados a produtos avançados de IA.

Além da ElevenLabs, o painel contou com líderes do Alan Turing Institute, Ada Lovelace Institute e BT, com mediação de Melissa Heikkilä, da MIT Technology Review.

Três pilares para a segurança em IA

Na ElevenLabs, desenvolvemos tecnologia de áudio com IA sempre atentos ao seu impacto. No meu papel de liderança em Segurança em IA, busco dar autonomia a criadores, empresas e usuários, ao mesmo tempo em que prevenimos usos indevidos e desencorajamos ações mal-intencionadas. Durante o painel, apresentei as medidas que adotamos para tornar a ElevenLabs um ambiente mais seguro e inovador, e defendi estratégias que priorizam o enfrentamento dos desafios de segurança em IA. Entre essas estratégias estão:

Procedência: consiste em diferenciar conteúdos gerados por IA de conteúdos reais, entendendo sua origem. Ferramentas de detecção de IA, como classificadores, são modelos probabilísticos treinados para reconhecer conteúdos criados por IA. Na ElevenLabs, desenvolvemos o Classificador de Fala IA, que permite a qualquer pessoa enviar amostras para verificar se foram geradas em nossa plataforma. Também estamos colaborando com a Loccus para aprimorar a classificação de conteúdos de IA. No entanto, classificadores não são uma solução definitiva para procedência; eles têm limitações. Para complementá-los, surgiram métodos de detecção baseados em metadados, marcas d’água e soluções de impressão digital. Apoiamos iniciativas do setor, como o padrão de metadados assinados criptograficamente C2PA, que tem a vantagem de ser aberto e interoperável, podendo permitir a rotulagem de conteúdos gerados por IA em canais de distribuição como Instagram ou Facebook.

Rastreabilidade: garante que o conteúdo gerado por IA possa ser rastreado até o usuário responsável. Na ElevenLabs, nossos sistemas permitem vincular o conteúdo criado na plataforma à conta de origem, e nossas ferramentas de clonagem de voz só estão disponíveis para usuários que verificaram suas contas com informações bancárias. O foco na rastreabilidade garante que qualquer pessoa que use plataformas de IA possa ser responsabilizada por suas ações e identificada pelas autoridades quando necessário.

Moderação: envolve definir políticas claras sobre o que é permitido e impedir que usuários gerem conteúdos que não estejam de acordo com essas regras. Na ElevenLabs, usamos sistemas automáticos para analisar, sinalizar e bloquear conteúdos inadequados. Moderadores humanos revisam o que foi sinalizado para garantir a aplicação consistente das políticas. Estamos sempre aprimorando nossa tecnologia de moderação para evitar a geração de conteúdos que possam prejudicar a confiança pública ou a segurança. Pontos de moderação open source, como o oferecido pela OpenAI, facilitam a integração da moderação de prompts em qualquer aplicação de IA.

Trabalhando juntos por um objetivo comum

Mesmo priorizando o desenvolvimento seguro da IA, nenhuma empresa consegue combater o uso indevido sozinha. No painel, reconhecemos a importância da colaboração entre empresas de tecnologia, governos, grupos de direitos civis e a sociedade para enfrentar mudanças sociais e ambientais e garantir um futuro digital seguro. Na ElevenLabs, mantemos o diálogo aberto com nossa comunidade e apoiamos iniciativas como a Content Authenticity Initiative e o Elections Safety Accord para combater a desinformação.

Preparando a segurança em IA para o futuro

No painel, todos concordamos que produtos de IA precisam ser desenvolvidos e usados com segurança. Ao mesmo tempo, é importante permitir usos criativos e inesperados. Na ElevenLabs, vemos nossa plataforma sendo usada para melhorar a acessibilidade de conteúdos digitais para quem precisa de transcrições em áudio e para devolver a voz a pessoas que a perderam por conta de ELA ou outras condições de saúde. Para que as aplicações de IA prosperem, é fundamental aumentar a conscientização sobre mídia criada por IA, incentivar a análise crítica de conteúdos digitais, promover ferramentas de verificação de autenticidade e educar tanto o público quanto as instituições sobre o uso ético da IA.

Artigos relacionados

Crie com o áudio de IA da mais alta qualidade