Vi satsar hårt på att säkerställa en säker användning av vår ledande teknik för ljud-AI.
AI-ljud hjälper till att övervinna språk- och kommunikationsbarriärer och banar väg för en mer sammankopplad, kreativ och produktiv värld. Det kan också locka till sig oseriösa aktörer. Vårt uppdrag är att bygga och distribuera de bästa produkterna inom ljud-AI samtidigt som vi ständigt förbättrar säkerhetsåtgärderna för att förhindra missbruk.
“AI-säkerhet är oskiljaktig från innovation hos ElevenLabs. Kärnan i vår strategi är att säkerställa att våra system utvecklas, distribueras och används på ett säkert sätt.”
Mati Staniszewski
Co-founder at ElevenLabs
Vårt uppdrag är att göra innehåll tillgängligt på alla språk och med vilken röst som helst.
Vi är en pålitlig leverantör av AI-ljud åt miljontals användare i hela världen, såväl som åt ledande förlag och medieföretag som:
ElevenLabs säkerhet i praktiken
Vi vägleds av tre principer för att hantera risker samtidigt som vi säkerställer att AI-ljud gynnar människor över hela världen: moderering, ansvar, och ursprung.
Moderering
Vi övervakar aktivt innehåll som genereras med vår teknik.
Automatisk moderering. Våra automatiska system söker igenom innehåll på jakt efter överträdelser av våra policyer och blockerar det direkt eller flaggar det för granskning.
Mänsklig moderering. Ett växande team av moderatorer granskar flaggat innehåll och hjälper oss att säkerställa att våra policyer konsekvent efterlevs.
Förbjudna röster. Även om våra policyer förbjuder imitationer använder vi oss av ett extra säkerhetsverktyg för att upptäcka och förhindra skapandet av innehåll med röster som anses särskilt riskabla.
voiceCAPTCHA. Vi har utvecklat en egen teknik för röstverifiering för att minimera den obehöriga användningen av röstkloningsverktyg. Det säkerställer att användare av vårt hi-fi-verktyg för röstkloning bara kan klona sin egen röst.
Policy för förbjudet innehåll och användning
Läs mer om vilka typer av innehåll och aktiviteter som inte är tillåtna när du använder våra verktyg.
Ansvar
Vi anser att missbruk måste få konsekvenser.
Spårbarhet. När oseriösa aktörer missbrukar våra verktyg vill vi veta vilka de är. Med våra system kan vi spåra genererat innehåll tillbaka till de ursprungliga kontona och våra röstkloningsverktyg är bara tillgängliga för användare som har verifierat sina konton med faktureringsuppgifter.
Avstängningar. Vi vill att oseriösa aktörer ska veta att de inte är välkomna på vår plattform. Vi stänger permanent av användare som bryter mot våra policyer.
Samarbete med brottsbekämpande myndigheter. Vi samarbetar med myndigheterna och, när så krävs, rapporterar eller lämnar ut information om olagligt innehåll eller olaglig aktivitet.
Rapportera innehåll
Om du hittar innehåll som reser frågetecken och du tror att det skapades med våra verktyg får du gärna rapportera det här.
Ursprung
Vi anser att du ska få veta om ljud är AI-genererat.
AI Speech Classifier. Vi har utvecklat ett mycket noggrant detekteringsverktyg som har 99 % precision och 80 % återkallelse om ljudprovet inte har modifierats. Vem som helst kan kontrollera om en ljudfil kan ha genererats med vår teknik.
Standarder för AI-detektering. Vi anser att ytterligare verktyg för AI-detektering, som metadata, vattenstämplar och fingeravtryckslösningar, är viktiga. Vi stöttar det utbredda antagandet av branschstandarder för ursprung genom C2PA.
Samarbete. Vi bjuder in andra AI-företag, den akademiska världen och beslutsfattare till ett samarbete kring att utveckla branschomfattande metoder för detektering av AI-innehåll. Vi är en del av Content Authenticity Initiative och samarbetar med innehållsdistributörer och civilsamhället för att skapa transparens kring AI-innehåll. Vi stöttar också myndighetsåtgärder för AI-säkerhet och är medlemmar i USA:s National Institute of Standards and Technology’s (NIST) AI Safety Institute Consortium.
ElevenLabs AI Speech Classifier
Vår AI Speech Classifier hjälper dig att kontrollera om ett ljudklipp har skapats med ElevenLabs.
Coalition for Content Provenance and Authenticity
En öppen teknisk standard som ger möjlighet att spåra medias ursprung.
Content Authenticity Initiative
Främjar antagandet av en öppen branschstandard för innehållets äkthet och ursprung.
“Mängden AI-genererat innehåll kommer fortsätta växa. Vi vill tillhandahålla den transparens som behövs och hjälpa till att verifiera ursprunget till digitalt innehåll.”
Piotr Dąbkowski
Co-founder at ElevenLabs
Särskilt fokus: val 2024
Halva världen kommer att gå till valurnorna 2024. Vi förbereder oss för årets val genom att främja en säker och rättvis användning av AI-röster.
För att underlätta dessa ansträngningar är vi en av de ursprungliga undertecknarna av Tech Accord on Election Safety, som samlar branschledare som Amazon, Google, Meta, Microsoft, OpenAI och ElevenLabs med flera i ett gemensamt försök att skydda val över hela världen från AI-missbruk.
“När AI blir en del av vårt dagliga liv är vi fast beslutna att bygga pålitliga produkter och samarbeta med våra partner för att utveckla skyddsåtgärder mot missbruk.”
Aleksandra Pedraszewska
AI Safety at ElevenLabs