Gå till innehåll

Säkerhet

AI-ljud som öppnar nya möjligheter och skapar positiv påverkan, med ansvar och skydd som förhindrar missbruk.

Vårt säkerhetsuppdrag

På ElevenLabs tror vi starkt på de stora fördelarna med AI-ljud. Vår teknik används av miljontals personer och tusentals företag för att göra innehåll och information tillgängligt för fler, skapa engagerande utbildningsverktyg, ge liv åt underhållning, ge rösten tillbaka till personer som förlorat talförmågan på grund av olycka eller sjukdom – och mycket mer.

Som med all banbrytande teknik inser vi också att missbruk kan orsaka skada. Därför arbetar vi aktivt för att skydda mot missbruk av våra modeller och produkter – särskilt försök att lura eller utnyttja andra. Våra säkerhetsprinciper styr vårt dagliga arbete och syns i konkreta, flerskiktade skyddsåtgärder som ska förebygga och hantera missbruk.

“AI-säkerhet går hand i hand med innovation på ElevenLabs. Att våra system utvecklas, används och hanteras säkert är alltid kärnan i vår strategi.”

Mati Staniszewski

Mati Staniszewski

Co-founder at ElevenLabs

“Mängden AI-genererat innehåll kommer att fortsätta öka. Vi vill bidra med ökad transparens och hjälpa till att verifiera ursprunget till digitalt innehåll.”

Piotr Dąbkowski

Piotr Dąbkowski

Co-founder at ElevenLabs

Våra säkerhetsprinciper

Vårt säkerhetsprogram bygger på följande principer:

Foreground

Våra skyddsåtgärder

Vi gör det så svårt som möjligt för personer med dåliga avsikter att missbruka våra verktyg, samtidigt som vi vill ge en smidig upplevelse för seriösa användare. Vi vet att inget skyddssystem är perfekt: ibland kan skyddet av misstag blockera rätt användare eller missa att stoppa felaktig användning.

Vi använder flera lager av skyddsåtgärder i ett system med försvar på flera nivåer. Om ett lager kringgås finns fler lager som fångar upp missbruket. Våra säkerhetsmekanismer utvecklas ständigt för att hänga med i utvecklingen av våra modeller, produkter och nya hot.

Informera

Vi använder tredjepartsstandarder som C2PA och stödjer externa initiativ för att förbättra verktyg för att upptäcka deepfakes. Vi har även släppt en branschledande AI Audio Classifier så att andra kan avgöra om innehåll är skapat med ElevenLabs.

Agera

Kunder som bryter mot vår policy för otillåten användning kan stängas av, särskilt vid upprepade eller allvarliga överträdelser. Vi anmäler brottslig eller olaglig aktivitet till rättsväsendet.

Upptäcka

Vi övervakar aktivt vår plattform för att upptäcka brott mot vår policy för otillåten användning, med hjälp av AI-klassificering, mänskliga granskare och interna utredningar. Vi samarbetar med externa organisationer för att få insikter om potentiellt missbruk och har skapat en möjlighet för allmänheten att rapportera överträdelser.

Förebygga

Vi testar våra modeller innan lansering och granskar våra kunder vid registrering. Vi har även lagt in funktioner som förhindrar missbruk, till exempel att blockera kloning av kändisars och andra högriskröster, samt kräva teknisk verifiering för tillgång till vårt Professional Voice Cloning-verktyg.

Säkerhetspartnerprogram

Vi samarbetar med ledande organisationer för att utveckla tekniska lösningar som upptäcker deepfakes i realtid.

Rapportera innehåll

Om du hittar innehåll som väcker oro och tror att det skapats med våra verktyg, rapportera det här.

Policy för otillåtet innehåll och användning

Läs om vilka typer av innehåll och aktiviteter som inte är tillåtna när du använder våra verktyg.

ElevenLabs AI Speech Classifier

Vår AI Speech Classifier låter dig upptäcka om ett ljudklipp är skapat med ElevenLabs.

Koalition för innehållsursprung och äkthet

En öppen teknisk standard som gör det möjligt att spåra ursprunget till media.

Initiativ för innehållsäkthet

Vi främjar användningen av en öppen industristandard för innehållets äkthet och ursprung.

Vanliga frågor

Den mest realistiska röst-AI-plattformen