Salta al contenuto

Come ElevenLabs si sta preparando alle elezioni del 2024

La sicurezza nello sviluppo, nell’implementazione e nell’uso dei nostri sistemi è la nostra priorità

A pie chart with equal red and blue halves next to a shield icon with a Wi-Fi signal inside.

Nel corso del 2024 si terranno diverse elezioni in tutto il mondo. In vista di questi eventi, ci concentriamo sul promuovere un uso sicuro ed equo delle voci IA

La nostra tecnologia nasce dal desiderio di abbattere le barriere linguistiche e favorire la comprensione globale. Trova applicazioni ispiranti nell’istruzione, nell’intrattenimento e nell’accessibilità, rendendo i contenuti più coinvolgenti e inclusivi.

Siamo però consapevoli dell’evoluzione della tecnologia IA e delle sue implicazioni nei processi politici. La sicurezza nello sviluppo, nell’implementazione e nell’uso dei nostri sistemi è la nostra priorità e stiamo adottando ulteriori misure per contrastare gli abusi e la diffusione di disinformazione man mano che la tecnologia si evolve.

Prevenire gli abusi

Per garantire un’esperienza positiva a tutti gli utenti della nostra piattaforma, stiamo adottando misure specifiche per evitare che le voci IA vengano usate per diffondere disinformazione. I nostri termini già vietano l’uso della piattaforma per impersonare o danneggiare altri, ma stiamo introducendo anche una protezione chiamata ‘voci non consentite’. Questa protezione serve a rilevare e impedire la creazione di voci che imitano candidati politici attivamente coinvolti in elezioni presidenziali o per il ruolo di primo ministro, a partire da Stati Uniti e Regno Unito. Stiamo lavorando per estendere questa protezione ad altre lingue e cicli elettorali. Vogliamo inoltre perfezionare costantemente questa misura grazie a test pratici e ai feedback ricevuti. Invitiamo altre aziende e partner IA a collaborare con noi per migliorare ed estendere queste protezioni in modo efficace.

Stiamo anche testando attivamente nuovi modi per contrastare la creazione di contenuti politici che potrebbero influenzare la partecipazione al processo democratico o fuorviare gli elettori. I nostri sistemi hanno sempre permesso di risalire all’account di origine dei contenuti generati sulla nostra piattaforma. Stiamo sviluppando nuovi meccanismi di moderazione e revisione interna per individuare e gestire in modo più efficace eventuali abusi. Falsificare i processi elettorali, i requisiti per il voto o il valore stesso del voto mina la democrazia e ci opponiamo fermamente all’uso dell’IA per creare confusione o sfiducia nel sistema democratico. Usare la nostra tecnologia per attività di campagna politica che prevedano l’impersonificazione di altri, la creazione di chatbot o l’invio di robocall viola direttamente i nostri termini.

Trasparenza sui contenuti generati dall’IA

Permettere di identificare chiaramente i contenuti generati dall’IA è un aspetto fondamentale del nostro impegno per uno sviluppo responsabile.

Lo scorso giugno abbiamo lanciato il Classificatore di Parlato IA, che permette a chiunque di caricare campioni audio per verificare se siano stati generati dall’IA di ElevenLabs. Il nostro obiettivo è aiutare a prevenire la diffusione di disinformazione rendendo più semplice valutare la provenienza dei contenuti audio. Se sei interessato a una partnership o a un’integrazione, contattaci a legal@elevenlabs.io. Se noti qualcosa di preoccupante sulla nostra piattaforma, o pensi che sia stato creato qui, segnalacelo qui.

Equilibrio tra innovazione e responsabilità

Ci ispiriamo alle applicazioni positive che la nostra community continua a trovare per la nostra tecnologia. Nel 2024 e oltre, restiamo impegnati nell’innovazione responsabile mantenendo un dialogo costante con la community, i partner, la società civile e tutti gli stakeholder.

Scopri gli articoli del team ElevenLabs

Crea con l'audio IA della massima qualità