En uppdatering om våra valförberedelser

Under hela 2024, som är ett viktigt valår i många länder, har vi vidtagit konkreta åtgärder för att förhindra missbruk av våra verktyg

På ElevenLabs vill vi göra innehåll tillgängligt och engagerande på alla språk och med olika röster och ljud. Vi tror starkt på att vår teknik kan skapa en mer sammankopplad och välinformerad värld och vara en god kraft för den demokratiska processen. Vi har gjort det möjligt för lagstiftare att återfå sina röster och hjälpa dem att fortsätta kämpa för sina väljare och de frågor som är viktiga för dem. Vi har gjort samma sak för viktiga företrädare, där vi stöttar deras ansträngningar att åstadkomma förändringar och förbättra liv. Och vårt arbete med att röja undan hinder för kunskap, delaktighet och gemenskap har bara börjat. 

Vi tror också att det är upp till oss alla – branschen, myndigheter, civilsamhället och individer – att inte bara främja den demokratiska processen, utan också skydda den. Under hela 2024, som är ett viktigt valår i många länder, har vi vidtagit konkreta åtgärder för att förhindra missbruk av våra verktyg. Inför valet i USA den 5 november kommer här en uppdatering om våra ansträngningar.

Policyer

Vi har reviderat vår Policy för förbjuden användning för att stärka och förtydliga våra regler kring användningen av våra verktyg i valsammanhang.

  • Förbud mot valkampanjer och imitation av kandidater. Vi förbjuder strängt användningen av våra verktyg för politiskt kampanjarbete, inklusive att främja eller förespråka en viss kandidat, fråga eller position, eller att försöka skaffa röster eller ekonomiska bidrag. Vi förbjuder också användningen av våra verktyg för att imitera politiska kandidaters och folkvalda tjänstemäns röster.
  • Förbud mot att störa valdeltagandet och valprocessen. Vi förbjuder användningen av våra verktyg för att uppmuntra till, engagera sig i eller underlätta åtgärder för att minska valdeltagandet eller andra störningar av valprocesser eller medborgerliga processer. Det inkluderar att skapa, distribuera eller underlätta spridningen av vilseledande information.

Förebyggande

Vi har förbättrat våra skyddsåtgärder för att förebygga missbruk av våra verktyg i samband med val. 

  • Användarverifiering. Alla som använder våra röstkloningsverktyg måste tillhandahålla kontakt- och betalningsinformation, så att vi kan blockera konton som är kopplade till bedräglig aktivitet eller riskabla områden vid registreringen.
  • Förbjudna röster. Vår teknik för förbjudna röster blockerar röster från hundratals kandidater, förtroendevalda, andra politiskt aktiva och kändisar från att genereras. Vi har kontinuerligt utökat detta skydd för att öka effektiviteten, och vi övervakar och vidtar åtgärder mot användare som försöker generera blockerade röster.

Upptäckt och upprätthållande

För att komplettera våra förebyggande åtgärder har vi förbättrat vår förmåga att upptäcka och upprätthålla.

  • Bevakning för att upptäcka missbruk. Våra förbättrade patentskyddade klassificeringsmekanismer, inklusive en som är speciellt utformad för att identifiera politiskt innehåll, tillsammans med automatiserad moderering och mänskliga granskare, hjälper oss att upptäcka innehåll som bryter mot våra villkor. Vi arbetar också med externa underrättelseteam som ger oss kunskap om potentiellt missbruk som syftar till att störa val, och vi har skapat kanaler för informationsdelning med myndigheter och branschpartner.
  • Konsekvent upprätthållande. När vi identifierar missbruk vidtar vi kraftiga åtgärder, inklusive att ta bort röster, varna användare, stänga av användare från vår plattform och, om så behövs, rapportera till myndigheter. Om du stöter på problematiskt innehåll som du tror kan ha sitt ursprung från ElevenLabs ser vi gärna att du berättar för oss.
  • Stöd till myndigheter. Vi anser att myndighetsåtgärder är avgörande för att förhindra missbruk. I juli kunde vi stolt meddela vårt stöd till Protect Elections from Deceptive AI Act, en lagstiftning över partigränserna ledd av senatorerna Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper och Marsha Blackburn, som ska hålla oseriösa aktörer – som använder AI i kampanjannonser för att lura väljarna – ansvariga. Vi kommer fortsätta samarbeta med beslutsfattare i USA och över hela världen kring säkerhetsinitiativ för AI, inklusive de som är relaterade till val.

Ursprung och transparens

Att möjliggöra tydlig identifiering av AI-genererat innehåll, bland annat genom breda samarbeten, är fortfarande en nyckelaspekt i ElevenLabs insatser för ansvarsfull utveckling.

  • AI Speech Classifier. Vår AI Speech Classifier, som varit tillgänglig för allmänheten sedan juni 2023, låter vem som helst ladda upp ett ljudprov och analysera om det härstammar från ElevenLabs. Genom att göra det här verktyget offentligt vill vi begränsa spridningen av desinformation genom att göra ljudkällan lättare att identifiera.
  • Branschsamarbeten. När det gäller AI-innehålls ursprung och transparens kan vi inte göra det ensamma – branschomfattande ansträngningar är nödvändiga. Det är därför vi är en del av Content Authenticity Initiative (CAI), som förenar stora media- och teknikföretag för att utveckla standarder för härkomst. Genom Coalition for Content Provenance and Authenticity (C2PA) implementerar vi dessa standarder genom att bädda in kryptografiskt signerad metadata i ljudet som genereras på vår plattform. Det säkerställer att de kanaler för innehållsdistribution som använder CAI:s verktyg, som ledande sociala medier, kan se att vårt ljud är AI-genererat.
  • Stöd till detekteringsverktyg från tredje part. Vi arbetar med tredjepartsföretag som sysslar med AI-säkerhet för att förbättra deras verktyg för att identifiera AI-genererat innehåll, inklusive valrelaterade deepfakes. I juli samarbetade vi med Reality Defender – ett cybersäkerhetsföretag som fokuserar på att upptäcka deepfakes – och gav dem tillgång till våra modeller och data för att stärka deras detekteringsverktyg. Vårt partnerskap hjälper Reality Defenders kunder, inklusive myndigheter och stora företag, att upptäcka AI-genererade hot i realtid, vilket skyddar människor runt om i världen från desinformation och sofistikerade bedrägerier. Vi är också involverade i andra akademiska och kommersiella projekt, inklusive forskningsinitiativ vid UC Berkeleys School of Information, för att främja identifiering av AI-innehåll.

Under de kommande dagarna och veckorna kommer vi att fortsätta lära oss och förfina dessa skyddsåtgärder. Vi inser att vi inte kan förutse alla sätt som våra verktyg kan användas på. Men vi kommer fortsätta vidta kraftfulla åtgärder för att förhindra missbruk, samtidigt som vi använder vår teknik för att skapa en mer sammankopplad och välinformerad värld.

Utforska mer

ElevenLabs

Skapa ljud och röster som imponerar med de bästa AI-verktygen

Kom igång gratis

Har du redan ett konto? Logga in