Vi satsar hårt på att säkerställa en säker användning av vår ledande teknik för ljud-AI.

AI-ljud hjälper till att övervinna språk- och kommunikationsbarriärer och banar väg för en mer sammankopplad, kreativ och produktiv värld. Det kan också locka till sig oseriösa aktörer. Vårt uppdrag är att bygga och distribuera de bästa produkterna inom ljud-AI samtidigt som vi ständigt förbättrar säkerhetsåtgärderna för att förhindra missbruk.

AI-säkerhet är oskiljaktig från innovation hos ElevenLabs. Kärnan i vår strategi är att säkerställa att våra system utvecklas, distribueras och används på ett säkert sätt.
A young man smiling while working at a computer in an office setting.

Mati Staniszewski

Co-founder at ElevenLabs

Vårt uppdrag är att göra innehåll tillgängligt på alla språk och med vilken röst som helst.

Vi är en pålitlig leverantör av AI-ljud åt miljontals användare i hela världen, såväl som åt ledande förlag och medieföretag som:

The Washington Post Logo
CNN logo in red text
HarperCollins Publishers logo with a flame and water icon.

ElevenLabs säkerhet i praktiken

Vi vägleds av tre principer för att hantera risker samtidigt som vi säkerställer att AI-ljud gynnar människor över hela världen: moderering, ansvar, och ursprung.

Moderering

Vi övervakar aktivt innehåll som genereras med vår teknik.

Blurred yellow text box with a warning icon at the bottom left corner.

Automatisk moderering. Våra automatiska system söker igenom innehåll på jakt efter överträdelser av våra policyer och blockerar det direkt eller flaggar det för granskning.

Mänsklig moderering. Ett växande team av moderatorer granskar flaggat innehåll och hjälper oss att säkerställa att våra policyer konsekvent efterlevs.

Förbjudna röster. Även om våra policyer förbjuder imitationer använder vi oss av ett extra säkerhetsverktyg för att upptäcka och förhindra skapandet av innehåll med röster som anses särskilt riskabla.

voiceCAPTCHA. Vi har utvecklat en egen teknik för röstverifiering för att minimera den obehöriga användningen av röstkloningsverktyg. Det säkerställer att användare av vårt hi-fi-verktyg för röstkloning bara kan klona sin egen röst.

Ansvar

Vi anser att missbruk måste få konsekvenser.

A digital interface showing a microphone icon, a folder icon, and a green circular pattern with a checkmark.

Spårbarhet. När oseriösa aktörer missbrukar våra verktyg vill vi veta vilka de är. Med våra system kan vi spåra genererat innehåll tillbaka till de ursprungliga kontona och våra röstkloningsverktyg är bara tillgängliga för användare som har verifierat sina konton med faktureringsuppgifter.

Avstängningar. Vi vill att oseriösa aktörer ska veta att de inte är välkomna på vår plattform. Vi stänger permanent av användare som bryter mot våra policyer.

Samarbete med brottsbekämpande myndigheter. Vi samarbetar med myndigheterna och, när så krävs, rapporterar eller lämnar ut information om olagligt innehåll eller olaglig aktivitet.

Ursprung

Vi anser att du ska få veta om ljud är AI-genererat.

Abstract black and white wavy lines on a light background.

AI Speech Classifier. Vi har utvecklat ett mycket noggrant detekteringsverktyg som har 99 % precision och 80 % återkallelse om ljudprovet inte har modifierats. Vem som helst kan kontrollera om en ljudfil kan ha genererats med vår teknik.

Standarder för AI-detektering. Vi anser att ytterligare verktyg för AI-detektering, som metadata, vattenstämplar och fingeravtryckslösningar, är viktiga. Vi stöttar det utbredda antagandet av branschstandarder för ursprung genom C2PA.

Samarbete. Vi bjuder in andra AI-företag, den akademiska världen och beslutsfattare till ett samarbete kring att utveckla branschomfattande metoder för detektering av AI-innehåll. Vi är en del av Content Authenticity Initiative och samarbetar med innehållsdistributörer och civilsamhället för att skapa transparens kring AI-innehåll. Vi stöttar också myndighetsåtgärder för AI-säkerhet och är medlemmar i USA:s National Institute of Standards and Technology’s (NIST) AI Safety Institute Consortium.

Mängden AI-genererat innehåll kommer fortsätta växa. Vi vill tillhandahålla den transparens som behövs och hjälpa till att verifiera ursprunget till digitalt innehåll.
Young man wearing a white T-shirt with "ElevenLabs" logo, indoors.

Piotr Dąbkowski

Co-founder at ElevenLabs

Särskilt fokus: val 2024

Halva världen kommer att gå till valurnorna 2024. Vi förbereder oss för årets val genom att främja en säker och rättvis användning av AI-röster.

För att underlätta dessa ansträngningar är vi en av de ursprungliga undertecknarna av Tech Accord on Election Safety, som samlar branschledare som Amazon, Google, Meta, Microsoft, OpenAI och ElevenLabs med flera i ett gemensamt försök att skydda val över hela världen från AI-missbruk.

När AI blir en del av vårt dagliga liv är vi fast beslutna att bygga pålitliga produkter och samarbeta med våra partner för att utveckla skyddsåtgärder mot missbruk.
A woman with shoulder-length blonde hair smiling at the camera against a plain light gray background.

Aleksandra Pedraszewska

AI Safety at ElevenLabs

Läs mer om våra säkerhetsinsatser

Efterlevnad

Om du stöter på innehåll som bryter mot vår policy för förbjudet innehåll och användning, och du tror att det skapades på vår plattform, rapportera det här. EU-användare kan meddela oss om innehåll de tror kan utgöra olagligt innehåll (enligt DSA Artikel 16 i EU:s Digital Services Act) här. Vi har också utsett en kontaktpunkt för EU-användare (enligt DSA Artikel 12) där de kan kontakta oss om andra bekymmer här.

Som en del av vårt engagemang för ansvarsfull AI har ElevenLabs fastställt policyer för samarbete med myndigheter, inklusive brottsbekämpande myndigheter. Där så krävs kan detta innefatta att rapportera eller lämna ut information om förbjudet innehåll samt att svara på lagliga förfrågningar från brottsbekämpande och andra myndigheter. Brottsbekämpande myndigheter kan skicka in juridiska förfrågningar genom att kontakta vårt juridiska team här. I enlighet med artikel 11 i EU:s Digital Services Act kan brottsbekämpande myndigheter i EU rikta förfrågningar om juridiska processer som inte är akuta till ElevenLabs Sp. z.o.o. genom att skicka in sin DSA-förfrågan via formuläret här, vilket har utsetts till den enskilda kontaktpunkten för direkt kommunikation med Europeiska kommissionen, medlemsstaternas myndigheter och Europeiska nämnden för digitala tjänster. Myndigheter kan kommunicera med ElevenLabs på engelska och polska. Där så krävs enligt tillämplig lag kan internationella rättsliga processer kräva inlämning genom ett avtal om ömsesidig rättslig hjälp.

Om du är en EU-användare har du sex månader på dig att överklaga en åtgärd ElevenLabs har vidtagit mot ditt innehåll eller konto. Om ditt konto eller innehåll har begränsats kan du skicka in din överklagan genom att svara på meddelandet du fick. Om du vill överklaga resultatet av din DSA-rapport om olagligt innehåll, använd formuläret här

EU-användare kan också kontakta certifierade organ för utomrättslig tvistlösning för att hjälpa till att lösa sina tvister relaterade till innehålls- eller kontobegränsningar, samt relaterade överklaganden. Beslut av utomrättsliga tvistlösningsorgan är inte bindande.
ElevenLabs

Skapa ljud och röster som imponerar med de bästa AI-verktygen

Kom igång gratis

Har du redan ett konto? Logga in

ElevenLabs — Säkerhet | ElevenLabs