Med vår AI Speech Classifier kan du ta reda på om ett ljudklipp har skapats med ElevenLabs
Hur ElevenLabs Förbereder sig för Valen 2024
Att säkerställa att våra system utvecklas, distribueras och används säkert är vår prioritet
Under 2024 kommer en rad val att hållas världen över. När de närmar sig fokuserar vi på att främja säker och rättvis användning av AI-röster.
Vår teknik föddes ur vårt engagemang för att bryta språkbarriärer och främja global förståelse. Den fortsätter att hitta inspirerande tillämpningar inom utbildning, underhållning och tillgänglighet, samtidigt som den gör innehåll mer engagerande och inkluderande.
Vi inser dock att AI-teknologins landskap förändras och dess konsekvenser för den politiska processen. Att säkerställa att våra system utvecklas, distribueras och används säkert är vår prioritet och vi vidtar ytterligare åtgärder för att motverka missbruk och spridning av desinformation när tekniken utvecklas.
Förhindra missbruk
I våra fortsatta ansträngningar att säkerställa en positiv upplevelse för alla användare av vår plattform, tar vi specifika steg för att förhindra att AI-röster används för att sprida desinformation. Även om våra villkor redan förbjuder att använda vår plattform för att imitera eller skada andra, inför vi ytterligare en ‘no-go voices’ skyddsåtgärd. Denna skyddsåtgärd är utformad för att upptäcka och förhindra skapandet av röster som imiterar politiska kandidater som aktivt deltar i president- eller premiärministerval, med start i USA och Storbritannien. Vi arbetar för att utöka detta skydd till andra språk och valcykler. Vi strävar också efter att kontinuerligt förbättra denna åtgärd genom praktisk testning och feedback. Vi bjuder in andra AI-företag och partners att samarbeta med oss för att utforska sätt att förbättra och utöka dessa skyddsåtgärder effektivt.
Vi testar också aktivt nya sätt att motverka skapandet av politiskt innehåll som kan påverka deltagandet i den demokratiska processen eller vilseleda väljare. Våra system har alltid tillåtit oss att spåra innehåll som genereras på vår plattform tillbaka till det ursprungliga kontot. Vi utvecklar aktivt nya modererings- och interna granskningsmekanismer för att identifiera och hantera missbruksfall mer effektivt. Att felaktigt framställa valprocesser, väljarkvalifikationer eller värdet av att rösta undergräver demokratin och vi motsätter oss starkt användningen av AI för att skapa förvirring eller misstro i det demokratiska systemet. Att använda vår teknik för politisk kampanjverksamhet som innebär att imitera andra, skapa chatbots eller placera robocalls är ett direkt brott mot våra villkor.
Transparens över AI-genererat innehåll
Att möjliggöra tydlig identifiering av AI-genererat innehåll är en nyckelaspekt i våra ansvarsfulla utvecklingsinsatser.
I juni släppte vi AI Speech Classifier, som låter vem som helst ladda upp ljudprover för analys om huruvida provet var AI-genererat ljud från ElevenLabs. Vårt mål är att hjälpa till att förhindra spridning av desinformation genom att göra källan till ljudinnehåll lättare att bedöma. Om du är intresserad av ett partnerskap eller en integration, vänligen kontakta oss på legal@elevenlabs.io. Om du stöter på något oroande på vår plattform, eller som du tror skapades på vår plattform, vänligen meddela oss här.
Balans mellan innovation och ansvar
Vi inspireras av de positiva tillämpningar vår community fortsätter att hitta för vår teknik. Under 2024 och framåt förblir vi engagerade i ansvarsfull innovation genom att upprätthålla en kontinuerlig dialog med vår community, partners, civilsamhället och viktiga intressenter.
Utforska artiklar av ElevenLabs-teamet

ElevenLabs och Reality Defender samarbetar kring initiativ för AI-säkerhet
Reality Defender förstärker system för AI-detektering med ElevenLabs ljud-AI och kunskap
.webp&w=3840&q=95)
Yvonne Johnson at the 11/11 ElevenLabs Summit
An authentic voice for change

