På ElevenLabs är vi engagerade i att göra innehåll tillgängligt och engagerande på alla språk, röster och ljud. Vi tror starkt på vår teknologis kraft att skapa en mer sammanlänkad och informerad värld, och i sin tur vara en positiv kraft för den demokratiska processen. Vi har hjälpt lagstiftare att återta sina röster, vilket hjälper dem att fortsätta kämpa för sina väljare och de frågor de bryr sig om. Vi har gjort detsamma för förespråkare, och stöttar deras ansträngningar att skapa förändring och förbättra liv. Och vårt arbete för att ta bort hinder för kunskap, deltagande och gemenskap har bara börjat.
Vi tror också att det är allas ansvar – industrin, regeringar, civilsamhället och individer – att inte bara främja den demokratiska processen, utan också skydda den.Under 2024, ett avgörande valår i länder över hela världen, har vi tagit konkreta steg för att förhindra missbruk av våra verktyg. Inför valet i USA den 5 november, här är en uppdatering om våra insatser.
Policyer
Vi har reviderat vår Policy för förbjuden användning för att stärka och klargöra våra regler angående användningen av våra verktyg i valkontext.
- Förbud mot kampanjande och imitation av kandidater.Vi förbjuder strikt användningen av våra verktyg för politisk kampanjande, inklusive att främja eller förespråka för en viss kandidat, fråga eller ståndpunkt, eller att be om röster eller ekonomiska bidrag. Vi förbjuder också användningen av våra verktyg för att imitera rösterna av politiska kandidater och valda regeringsföreträdare.
- Förbud mot väljarsuppression och störningar av valprocessen.Vi förbjuder användningen av våra verktyg för att uppvigla, delta i eller underlätta väljarsuppression eller andra störningar av val- eller civila processer. Detta inkluderar att skapa, distribuera eller underlätta spridningen av vilseledande information.
Förebyggande
Vi har förbättrat våra skyddsåtgärder för att förhindra missbruk av våra verktyg i valkontext.
- Användarscreening.Alla användare av våra Voice Cloning-verktyg måste tillhandahålla kontakt- och betalningsinformation, vilket hjälper oss att blockera konton kopplade till bedräglig aktivitet eller högriskgeografier vid registrering.
- “No-Go” Röster.Vår No-Go Voice-teknologi blockerar rösterna av hundratals kandidater, valda tjänstemän, andra politiska figurer och kändisar från att genereras. Vi har kontinuerligt utökat detta skydd för att öka dess effektivitet, och vi övervakar och vidtar åtgärder mot användare som försöker generera blockerade röster.
Upptäckt och Verkställighet
För att komplettera våra förebyggande åtgärder har vi ökat våra upptäckts- och verkställighetsmöjligheter.
- Övervakning av missbruk. Våra förbättrade proprietära klassificerare, inklusive en specifikt utformad för att identifiera politiskt innehåll, tillsammans med automatiserad moderering och mänskliga granskare, hjälper oss att upptäcka innehåll som bryter mot våra villkor. Vi arbetar också med externa hotintelligensgrupper som ger insikter om potentiellt missbruk riktat mot att störa val, och vi har upprättat informationsdelningskanaler med regerings- och industripartners.
- Stark verkställighet. När vi identifierar missbruk, vidtar vi beslutsamma åtgärder, inklusive att ta bort röster, sätta användare på prov, förbjuda användare från vår plattform, och om lämpligt, rapportera till myndigheter. Om du stöter på problematiskt innehåll som du tror kan ha sitt ursprung från ElevenLabs, vänligen låt oss veta.
- Stöd för regeringsinsatser.Vi tror att regeringsåtgärder är avgörande för att avskräcka missbruk. I juli var vi stolta över att tillkännage vårt stöd för Protect Elections from Deceptive AI Act, en tvåpartilagstiftning ledd av senatorerna Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper och Marsha Blackburn, som skulle hålla ansvariga de som använder AI i kampanjannonser för att vilseleda väljare. Vi kommer att fortsätta arbeta med beslutsfattare i USA och över hela världen om AI-säkerhetsinitiativ, inklusive de relaterade till val.
Ursprung och Transparens
Att möjliggöra tydlig identifiering av AI-genererat innehåll, inklusive genom bred samverkan, förblir en nyckelaspekt i ElevenLabs ansvarsfulla utvecklingsinsatser.
- AI Speech Classifier.Vår AI Speech Classifier, tillgänglig för allmänheten sedan juni 2023, låter vem som helst ladda upp ett ljudprov för analys om det har sitt ursprung från ElevenLabs. Genom att göra detta verktyg offentligt, strävar vi efter att begränsa spridningen av desinformation genom att göra källan till ljud lättare att identifiera.
- Samarbete med industrin. När det gäller AI-innehålls ursprung och transparens kan vi inte göra det ensamma – en branschövergripande insats är en nödvändighet. Det är därför vi är en del av Content Authenticity Initiative (CAI), som förenar stora medie- och teknikföretag för att utveckla standarder för ursprung. Genom Coalition for Content Provenance and Authenticity (C2PA), implementerar vi dessa standarder genom att bädda in kryptografiskt signerad metadata i ljudet som genereras på vår plattform. Detta säkerställer att innehållsdistributionskanaler som antar CAI:s verktyg, som ledande sociala medieplattformar, kan känna igen vårt ljud som AI-genererat.
- Stöd för tredjepartsdetekteringsverktyg. Vi arbetar med tredjeparts AI-säkerhetsföretag för att förbättra deras verktyg för att identifiera AI-genererat innehåll, inklusive valrelaterade deepfakes. I juli samarbetade vi med Reality Defender – ett cybersäkerhetsföretag fokuserat på deepfake-detektering – och tillhandahöll tillgång till våra modeller och data för att stärka deras detekteringsverktyg. Vårt partnerskap hjälper Reality Defenders kunder, inklusive regeringar och stora företag, att upptäcka AI-genererade hot i realtid, vilket skyddar människor världen över från desinformation och sofistikerat bedrägeri. Vi är också involverade i andra akademiska och kommersiella projekt, inklusive forskningsinitiativ vid UC Berkeleys School of Information, för att främja AI-innehållsdetektering.
Under de kommande dagarna och veckorna kommer vi att fortsätta lära oss och förfina dessa skyddsåtgärder. Vi inser att vi inte kan förutse alla sätt som våra verktyg kan användas på. Men vi kommer att fortsätta vidta kraftfulla åtgärder för att förhindra missbruk, samtidigt som vi använder vår teknologi för att skapa en mer sammanlänkad och informerad värld.