Säkerhet
Säkerhet
AI-ljud som öppnar nya möjligheter och skapar positiv påverkan, med ansvar och skydd som förhindrar missbruk.
Vårt säkerhetsuppdrag
På ElevenLabs tror vi starkt på de stora fördelarna med AI-ljud. Vår teknik används av miljontals personer och tusentals företag för att göra innehåll och information tillgängligt för fler, skapa engagerande utbildningsverktyg, ge liv åt underhållning, ge rösten tillbaka till personer som förlorat talförmågan på grund av olycka eller sjukdom – och mycket mer.
Som med all banbrytande teknik inser vi också att missbruk kan orsaka skada. Därför arbetar vi aktivt för att skydda mot missbruk av våra modeller och produkter – särskilt försök att lura eller utnyttja andra. Våra säkerhetsprinciper styr vårt dagliga arbete och syns i konkreta, flerskiktade skyddsåtgärder som ska förebygga och hantera missbruk.
“AI-säkerhet går hand i hand med innovation på ElevenLabs. Att våra system utvecklas, används och hanteras säkert är alltid kärnan i vår strategi.”

Mati Staniszewski
Co-founder at ElevenLabs
“Mängden AI-genererat innehåll kommer att fortsätta öka. Vi vill bidra med ökad transparens och hjälpa till att verifiera ursprunget till digitalt innehåll.”

Piotr Dąbkowski
Co-founder at ElevenLabs
Våra säkerhetsprinciper
Vårt säkerhetsprogram bygger på följande principer:
Våra skyddsåtgärder
Vi gör det så svårt som möjligt för personer med dåliga avsikter att missbruka våra verktyg, samtidigt som vi vill ge en smidig upplevelse för seriösa användare. Vi vet att inget skyddssystem är perfekt: ibland kan skyddet av misstag blockera rätt användare eller missa att stoppa felaktig användning.
Vi använder flera lager av skyddsåtgärder i ett system med försvar på flera nivåer. Om ett lager kringgås finns fler lager som fångar upp missbruket. Våra säkerhetsmekanismer utvecklas ständigt för att hänga med i utvecklingen av våra modeller, produkter och nya hot.
Informera
Vi använder tredjepartsstandarder som C2PA och stödjer externa initiativ för att förbättra verktyg för att upptäcka deepfakes. Vi har även släppt en branschledande AI Audio Classifier så att andra kan avgöra om innehåll är skapat med ElevenLabs.
Agera
Kunder som bryter mot vår policy för otillåten användning kan stängas av, särskilt vid upprepade eller allvarliga överträdelser. Vi anmäler brottslig eller olaglig aktivitet till rättsväsendet.
Upptäcka
Vi övervakar aktivt vår plattform för att upptäcka brott mot vår policy för otillåten användning, med hjälp av AI-klassificering, mänskliga granskare och interna utredningar. Vi samarbetar med externa organisationer för att få insikter om potentiellt missbruk och har skapat en möjlighet för allmänheten att rapportera överträdelser.
Förebygga
Vi testar våra modeller innan lansering och granskar våra kunder vid registrering. Vi har även lagt in funktioner som förhindrar missbruk, till exempel att blockera kloning av kändisars och andra högriskröster, samt kräva teknisk verifiering för tillgång till vårt Professional Voice Cloning-verktyg.
Säkerhetspartnerprogram
Vi samarbetar med ledande organisationer för att utveckla tekniska lösningar som upptäcker deepfakes i realtid.
Rapportera innehåll
Om du hittar innehåll som väcker oro och tror att det skapats med våra verktyg, rapportera det här.
Policy för otillåtet innehåll och användning
Läs om vilka typer av innehåll och aktiviteter som inte är tillåtna när du använder våra verktyg.
ElevenLabs AI Speech Classifier
Vår AI Speech Classifier låter dig upptäcka om ett ljudklipp är skapat med ElevenLabs.