Apresentando o Eleven v3 (alpha)

Experimente o v3

Uma atualização sobre nossa preparação para as eleições

Ao longo de 2024, um ano eleitoral crucial em países ao redor do mundo, tomamos medidas concretas para prevenir o uso indevido de nossas ferramentas

Na ElevenLabs, estamos comprometidos em tornar o conteúdo acessível e envolvente em qualquer idioma, voz e som. Acreditamos profundamente no poder da nossa tecnologia para criar um mundo mais conectado e informado e, por sua vez, ser uma força positiva para o processo democrático. Nós permitimos que legisladores recuperem suas vozes, ajudando-os a continuar lutando por seus eleitores e pelas questões que consideram importantes. Fizemos o mesmo por defensores, apoiando seus esforços para promover mudanças e melhorar vidas. E nosso trabalho para remover barreiras ao conhecimento, participação e comunidade está apenas começando.

Também acreditamos que cabe a todos nós – indústria, governos, sociedade civil e indivíduos – não apenas promover o processo democrático, mas protegê-lo.Ao longo de 2024, um ano eleitoral crucial em países ao redor do mundo, tomamos medidas concretas para prevenir o uso indevido de nossas ferramentas. Antes da eleição nos EUA em 5 de novembro, aqui está uma atualização sobre nossos esforços.

Políticas

Revisamos nossa Política de Uso Proibido para fortalecer e esclarecer nossas regras sobre o uso de nossas ferramentas no contexto das eleições.

  • Proibição de campanhas e imitação de candidatos.Proibimos estritamente o uso de nossas ferramentas para campanhas políticas, incluindo promover ou defender um candidato, questão ou posição específica, ou solicitar votos ou contribuições financeiras. Também proibimos o uso de nossas ferramentas para imitar as vozes de candidatos políticos e funcionários eleitos.
  • Proibição de supressão de votos e interrupções do processo eleitoral.Proibimos o uso de nossas ferramentas para incitar, participar ou facilitar a supressão de votos ou outras interrupções de processos eleitorais ou cívicos. Isso inclui criar, distribuir ou facilitar a disseminação de informações enganosas.

Prevenção

Aprimoramos nossas proteções para prevenir o uso indevido de nossas ferramentas no contexto das eleições.

  • Triagem de usuários.Todos os usuários de nossas ferramentas de Voice Cloning devem fornecer informações de contato e pagamento, o que nos ajuda a bloquear contas ligadas a atividades fraudulentas ou geografias de alto risco no momento do cadastro.
  • Vozes “No-Go”.Nossa tecnologia No-Go Voice bloqueia as vozes de centenas de candidatos, funcionários eleitos, outras figuras políticas e celebridades de serem geradas. Continuamos expandindo essa proteção para aumentar sua eficácia e monitoramos e tomamos medidas contra usuários que tentam gerar vozes bloqueadas.

Detecção e Aplicação

Para complementar nossas medidas preventivas, aumentamos nossas capacidades de detecção e aplicação.

  • Monitoramento de uso indevido. Nossos classificadores proprietários aprimorados, incluindo um especificamente projetado para identificar conteúdo político, juntamente com moderação automatizada e revisores humanos, nos ajudam a detectar conteúdo que viola nossos termos. Também trabalhamos com equipes externas de inteligência de ameaças que fornecem insights sobre possíveis usos indevidos destinados a interromper eleições, e estabelecemos canais de compartilhamento de informações com parceiros governamentais e da indústria.
  • Aplicação rigorosa. Quando identificamos uso indevido, tomamos medidas decisivas, incluindo remover vozes, colocar usuários em período probatório, banir usuários de nossa plataforma e, se apropriado, relatar às autoridades. Se você encontrar conteúdo problemático que possa ter se originado da ElevenLabs, por favor nos avise.
  • Apoio aos esforços governamentais.Acreditamos que a ação governamental é crítica para deter o uso indevido. Em julho, tivemos orgulho de anunciar nosso apoio ao Protect Elections from Deceptive AI Act, legislação bipartidária liderada pelos senadores Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper e Marsha Blackburn, que responsabilizaria os maus atores que usam IA em anúncios de campanha para enganar eleitores. Continuaremos a trabalhar com formuladores de políticas nos EUA e em todo o mundo em iniciativas de segurança de IA, incluindo aquelas relacionadas às eleições.

Proveniência e Transparência

Permitir a identificação clara de conteúdo gerado por IA, inclusive por meio de ampla colaboração, continua sendo um aspecto chave dos esforços de desenvolvimento responsável da ElevenLabs.

  • Classificador de Fala IA. Nosso Classificador de Fala IA, disponível ao público desde junho de 2023, permite que qualquer pessoa envie uma amostra de áudio para análise sobre se ela se originou da ElevenLabs. Ao tornar essa ferramenta pública, nosso objetivo é limitar a disseminação de desinformação tornando a fonte do áudio mais fácil de identificar.
  • Colaborando com a indústria. Quando se trata de proveniência e transparência de conteúdo de IA, não podemos fazer isso sozinhos – um esforço em toda a indústria é uma necessidade. É por isso que fazemos parte da Content Authenticity Initiative (CAI), que une grandes empresas de mídia e tecnologia para desenvolver padrões de proveniência. Através da Coalition for Content Provenance and Authenticity (C2PA), estamos implementando esses padrões incorporando metadados assinados criptograficamente no áudio gerado em nossa plataforma. Isso garante que os canais de distribuição de conteúdo que adotam as ferramentas da CAI, como as principais plataformas de mídia social, possam reconhecer nosso áudio como gerado por IA.
  • Apoio a ferramentas de detecção de terceiros. Trabalhamos com empresas de segurança de IA de terceiros para melhorar suas ferramentas de identificação de conteúdo gerado por IA, incluindo deepfakes relacionados a eleições. Em julho, fizemos parceria com a Reality Defender – uma empresa de cibersegurança focada na detecção de deepfakes – fornecendo acesso aos nossos modelos e dados para fortalecer suas ferramentas de detecção. Nossa parceria ajuda os clientes da Reality Defender, incluindo governos e grandes empresas, a detectar ameaças geradas por IA em tempo real, protegendo pessoas ao redor do mundo de desinformação e fraudes sofisticadas. Também estamos envolvidos em outros projetos acadêmicos e comerciais, incluindo iniciativas de pesquisa na Escola de Informação da UC Berkeley, para avançar na detecção de conteúdo de IA.

Nos próximos dias e semanas, continuaremos aprendendo e refinando essas proteções. Reconhecemos que não podemos prever todas as formas de uso de nossas ferramentas. Mas continuaremos a tomar medidas robustas para prevenir abusos, enquanto usamos nossa tecnologia para criar um mundo mais conectado e informado.

Explore artigos da equipe ElevenLabs

ElevenLabs

Crie com o áudio IA da mais alta qualidade