In ElevenLabs ci impegniamo a rendere i contenuti accessibili e coinvolgenti in qualsiasi lingua, voce ed effetto sonoro. Crediamo profondamente nel potenziale della nostra tecnologia per creare un mondo più connesso e informato, e quindi essere una forza positiva per il processo democratico. Abbiamo permesso ai legislatori di riprendersi la propria voce, aiutandoli a continuare a difendere i loro elettori e le cause a cui tengono. Abbiamo fatto lo stesso per attivisti, sostenendo i loro sforzi per portare cambiamento e migliorare la vita delle persone. E il nostro lavoro per abbattere le barriere alla conoscenza, alla partecipazione e alla comunità è solo all’inizio.
Crediamo anche che sia responsabilità di tutti noi – industria, governi, società civile e singoli individui – non solo promuovere il processo democratico, ma anche proteggerlo.Durante il 2024, anno elettorale cruciale in molti Paesi, abbiamo adottato misure concrete per prevenire l’uso improprio dei nostri strumenti. In vista delle elezioni statunitensi del 5 novembre, ecco un aggiornamento sui nostri sforzi.
Policy
Abbiamo aggiornato la nostra Politica sull’uso vietato per rafforzare e chiarire le regole sull’uso dei nostri strumenti in ambito elettorale.
- Divieto di propaganda e imitazione dei candidati.Proibiamo rigorosamente l’uso dei nostri strumenti per campagne politiche, inclusa la promozione o il sostegno a un candidato, una causa o una posizione specifica, o la richiesta di voti o contributi economici. Vietiamo anche l’uso dei nostri strumenti per imitare le voci di candidati politici e rappresentanti eletti.
- Divieto di soppressione del voto e interruzione dei processi elettorali.Vietiamo l’uso dei nostri strumenti per incitare, partecipare o facilitare la soppressione del voto o altre interruzioni dei processi elettorali o civici. Questo include la creazione, distribuzione o diffusione di informazioni fuorvianti.
Prevenzione
Abbiamo rafforzato le nostre misure di sicurezza per prevenire l’uso improprio dei nostri strumenti in ambito elettorale.
- Verifica degli utenti.Tutti gli utenti dei nostri strumenti di clonazione vocale devono fornire informazioni di contatto e pagamento, il che ci aiuta a bloccare gli account collegati ad attività fraudolente o a geografie ad alto rischio già in fase di registrazione.
- Voci “No-Go”.La nostra tecnologia No-Go Voice blocca la generazione delle voci di centinaia di candidati, rappresentanti eletti, altre figure politiche e celebrità. Abbiamo ampliato costantemente questa protezione per renderla sempre più efficace, e monitoriamo e interveniamo contro chi tenta di generare voci bloccate.
Rilevamento e intervento
Per rafforzare le misure preventive, abbiamo potenziato le nostre capacità di rilevamento e intervento.
- Monitoraggio degli abusi. I nostri classificatori proprietari migliorati, incluso uno specifico per identificare contenuti politici, insieme alla moderazione automatica e a revisori umani, ci aiutano a individuare contenuti che violano i nostri termini. Collaboriamo anche con team esterni di threat intelligence che ci forniscono informazioni su possibili abusi mirati a disturbare le elezioni, e abbiamo attivato canali di condivisione delle informazioni con partner governativi e del settore.
- Interventi decisi. Quando rileviamo un abuso, agiamo in modo deciso: rimuoviamo le voci, mettiamo gli utenti in prova, li banniamo dalla nostra piattaforma e, se necessario, segnaliamo alle autorità competenti. Se ti imbatti in contenuti problematici che pensi possano provenire da ElevenLabs, segnalacelo.
- Supporto alle iniziative governative.Crediamo che l’azione dei governi sia fondamentale per scoraggiare gli abusi. A luglio siamo stati orgogliosi di annunciare il nostro sostegno al Protect Elections from Deceptive AI Act una proposta di legge bipartisan guidata dai senatori Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper e Marsha Blackburn, che mira a perseguire chi usa l’IA in spot elettorali per ingannare gli elettori. Continueremo a collaborare con i decisori politici negli Stati Uniti e nel mondo su iniziative per la sicurezza dell’IA, anche in ambito elettorale.
Provenienza e trasparenza
Rendere chiara l’identificazione dei contenuti generati dall’IA, anche tramite ampie collaborazioni, resta un aspetto centrale dell’impegno di ElevenLabs per uno sviluppo responsabile.
- AI Speech Classifier.Il nostro Classificatore di Parlato IA, disponibile pubblicamente da giugno 2023, permette a chiunque di caricare un campione audio per verificare se proviene da ElevenLabs. Rendendo questo strumento pubblico, vogliamo limitare la diffusione di disinformazione facilitando l’identificazione della fonte dell’audio.
- Collaborazione con il settore.Quando si parla di provenienza e trasparenza dei contenuti IA, serve uno sforzo condiviso da tutto il settore. Per questo facciamo parte della Content Authenticity Initiative (CAI), che riunisce le principali aziende media e tech per sviluppare standard sulla provenienza. Attraverso la Coalizione per la Provenienza e l’Autenticità dei Contenuti (C2PA), stiamo implementando questi standard inserendo metadati firmati crittograficamente nell’audio generato sulla nostra piattaforma. Questo permette ai canali di distribuzione che adottano gli strumenti CAI, come le principali piattaforme social, di riconoscere il nostro audio come generato da IA.
- Supporto agli strumenti di rilevamento di terze parti. Collaboriamo con aziende di sicurezza IA esterne per migliorare i loro strumenti di identificazione dei contenuti generati da IA, inclusi i deepfake legati alle elezioni. A luglio abbiamo avviato una partnership con Reality Defender – azienda di cybersecurity specializzata nel rilevamento dei deepfake – fornendo accesso ai nostri modelli e dati per rafforzare i loro strumenti di rilevamento. La nostra collaborazione aiuta i clienti di Reality Defender, tra cui governi e grandi aziende, a individuare minacce generate da IA in tempo reale, proteggendo le persone in tutto il mondo da disinformazione e frodi sofisticate. Partecipiamo anche ad altri progetti accademici e commerciali, tra cui iniziative di ricerca presso la School of Information di UC Berkeley, per migliorare il rilevamento dei contenuti IA.
Nei prossimi giorni e settimane continueremo a imparare e perfezionare queste misure di sicurezza. Sappiamo che non possiamo prevedere ogni possibile utilizzo dei nostri strumenti, ma continueremo ad agire con decisione per prevenire abusi, mettendo la nostra tecnologia al servizio di un mondo più connesso e informato.