Med vår AI Speech Classifier kan du ta reda på om ett ljudklipp har skapats med ElevenLabs
Så här förbereder sig ElevenLabs för valen 2024
Vi prioriterar att säkerställa att våra system utvecklas, distribueras och används på ett säkert sätt
Under 2024 kommer en rad val att äga rum över hela världen. I takt med att de närmar sig fokuserar vi på att främja en säker och rättvis användning av AI-röster.
Vår teknik föddes ur vårt engagemang för att bryta ner språkbarriärer och främja en global förståelse. Den fortsätter att hitta inspirerande tillämpningar inom utbildning, underhållning och tillgänglighet, samtidigt som innehållet blir mer engagerande och inkluderande.
Men vi är medvetna om AI-teknikens föränderliga landskap och dess politiska konsekvenser. Vi prioriterar att säkerställa att våra system utvecklas, distribueras och används på ett säkert sätt och vi vidtar ytterligare åtgärder för att bekämpa missbruk och spridning av desinformation i takt med att tekniken utvecklas.
Förebyggande av missbruk
I våra fortsatta ansträngningar för att säkerställa en positiv upplevelse för alla som använder vår plattform vidtar vi specifika åtgärder för att förhindra att AI-röster används till att sprida desinformation. Våra villkor förbjuder redan att man använder vår plattform för att imitera eller skada andra, men vi lägger också till”förbjudna röster”som en extra skyddsåtgärd. Skyddet är utformat för att upptäcka och förebygga skapandet av röster som imiterar politiska kandidater som är aktivt involverade i president- eller premiärministerval, med början i USA och Storbritannien. Vi arbetar för att utöka detta skydd till andra språk och valrörelser. Vi strävar också efter att kontinuerligt förfina denna mekanism genom praktiska tester och feedback. Vi bjuder in andra AI-företag och partner att samarbeta med oss och utforska möjligheterna att förbättra och utöka dessa skyddsåtgärder på ett effektivt sätt.
Vi testar också aktivt nya sätt att motverka skapandet av politiskt innehåll som antingen kan påverka deltagandet i den demokratiska processen eller vilseleda väljarna. Våra system har alltid gjort det möjligt för oss att spåra innehåll som genererats på vår plattform tillbaka till ursprungskontot. Vi utvecklar aktivt nya modereringsmekanismer och förbättrar vår interna granskning för att identifiera och hantera missbruk mer effektivt. En felaktig presentation av valprocesser, röstberättigande eller värdet av att rösta undergräver demokratin och vi motsätter oss bestämt att AI används för att skapa förvirring eller misstro mot det demokratiska systemet. Att använda vår teknik för politisk kampanjaktivitet som innebär att imitera andra, skapa chattbottar eller ringa robotsamtal är ett direkt brott mot våra villkor.
Transparens för AI-genererat innehåll
Att möjliggöra tydlig identifiering av AI-genererat innehåll är en nyckelaspekt i vårt ansvarsfulla utvecklingsarbete.
I juni förra året släppte vi AI Speech Classifier, där vem som helst kan ladda upp ljudprover och analysera om provet är AI-genererat ljud från ElevenLabs. Vårt mål är att hjälpa till att förhindra spridning av desinformation genom att göra det lättare att bedöma var ljudinnehåll kommer ifrån. Om du är intresserad av antingen ett partnerskap eller en integrering får du gärna kontakta oss på legal@elevenlabs.io. Om du stöter på något oroväckande på vår plattform, eller som du tror skapades på vår plattform, ser vi gärna att du berättar det här.
Balansen mellan innovation och ansvar
Vi inspireras av de positiva tillämpningar som våra användare fortsätter att hitta för vår teknik. Under 2024 och därefter förblir vi engagerade i ansvarsfull innovation genom att upprätthålla en kontinuerlig dialog med vår community, våra partner, civilsamhället och nyckelintressenter.
Utforska mer
ElevenLabs skriver på Tech Accord om valsäkerhet
Vi säkerställer valens integritet genom ansvarsfull AI-utveckling
ElevenLabs och Reality Defender samarbetar kring initiativ för AI-säkerhet
Reality Defender förstärker system för AI-detektering med ElevenLabs ljud-AI och kunskap