Wir bei ElevenLabs setzen uns dafür ein, dass Inhalte in jeder Sprache, jeder Stimme und jedem Ton zugänglich und ansprechend sind. Zudem sind wir fest davon überzeugt, dass unsere Technologie die Möglichkeit bietet, eine besser vernetzte und besser informierte Welt zu schaffen und damit einen positiven Beitrag für den demokratischen Prozess zu leisten. Wir haben es Politikern ermöglicht, ihre Stimme wiederzuerlangen, und ihnen dabei geholfen, sich weiterhin für ihre Wähler und die für sie wichtigen Themen einzusetzen. Das Gleiche haben wir für Befürwortergetan und sie bei ihren Bemühungen unterstützt, Veränderungen herbeizuführen und das Leben der Menschen zu verbessern. Dabei hat unsere Arbeit zur Beseitigung von Hindernissen für Wissen, Teilhabe und Gemeinschaft gerade erst begonnen.
Wir sind auch der Meinung, dass wir alle – Wirtschaft, Politik, Zivilgesellschaft und Bürger – die Pflicht haben, den demokratischen Prozess nicht nur zu fördern, sondern auch zu schützen. Im gesamten Jahr 2024, einem entscheidenden Wahljahr in Ländern auf der ganzen Welt, haben wir konkrete Schritte unternommen, um den Missbrauch unserer Tools zu verhindern. Nachstehend werden die Maßnahmen aufgeführt, die wir im Vorfeld der US-Präsidentschaftswahlen am 5. November getroffen haben:
Richtlinien
Wir haben unsere Richtlinie zur verbotenen Nutzung überarbeitet, um unsere Regeln für den Einsatz unserer Tools im Rahmen von Wahlen zu stärken und zu klären.
- Verbot im Wahlkampf und der Nachahmung von Kandidaten. Die Nutzung unserer Tools im Wahlkampf ist strengstens untersagt. Dazu gehören auch die Förderung oder Befürwortung bestimmter Kandidaten, Themen oder Positionen sowie das Bitten um Stimmen oder finanzielle Spenden. Wir verbieten außerdem die Verwendung unserer Tools zur Nachahmung der Stimme politischer Kandidaten und gewählter Abgeordneter.
- Verbot der Unterdrückung von Wählern und der Störung des Wahlprozesses. Wir untersagen die Nutzung unserer Tools, um zur Unterdrückung von Wählern oder anderen Störungen von Wahl- oder Bürgerprozessen anzustiften, sich daran zu beteiligen oder diese zu unterstützen. Dies umfasst die Erstellung, Verbreitung oder Unterstützung der Verbreitung irreführender Informationen.
Prävention
Wir haben unsere Sicherheitsvorkehrungen verstärkt, um den Missbrauch unserer Tools im Rahmen von Wahlen zu verhindern.
- Überprüfung der Nutzer. Alle Nutzer unserer Tools zur Stimmenklonung müssen bei der Anmeldung ihre Kontakt- und Zahlungsinformationen angeben. Dies hilft uns dabei, Konten zu sperren, die mit betrügerischen Aktivitäten oder Hochrisikogebieten in Verbindung stehen.
- Stimmenverbot. Unsere Stimmenverbotstechnologie verhindert die Generierung der Stimmen von Hunderten von politischen Kandidaten, Abgeordneten sowie anderen Politikern und Prominenten. Diese Schutzmaßnahme wurde von uns kontinuierlich erweitert, um ihre Wirksamkeit zu erhöhen. Wir überwachen Nutzer, die versuchen, blockierte Stimmen zu generieren, und ergreifen entsprechende Maßnahmen.
Erkennung und Durchsetzung
Als Ergänzung zu unseren Präventivmaßnahmen haben wir unsere Erkennungs- und Durchsetzungskapazitäten verstärkt.
- Überwachung auf Missbrauch. Unsere verbesserten proprietären Klassifikatoren, darunter einer, der speziell zur Erkennung politischer Inhalte entwickelt wurde, sowie die automatische Moderation und menschliche Prüfer helfen uns dabei, Inhalte zu erkennen, die gegen unsere Bedingungen verstoßen. Wir arbeiten zudem mit externen Bedrohungsaufklärungsteams zusammen, die uns Erkenntnisse über möglichen Missbrauch mit dem Ziel der Wahlmanipulation liefern. Des Weiteren haben wir Kanäle zum Informationsaustausch mit Partnern aus Behörden und der Wirtschaft eingerichtet.
- Nachdrückliche Durchsetzung. Wenn wir Missbrauch feststellen, ergreifen wir entschiedene Maßnahmen. Dazu gehören die Entfernung von Stimmen, die Verwarnung von Nutzern, der Ausschluss von Nutzern von unserer Plattform und, falls angemessen, die Meldung an die Behörden. Wenn Sie auf problematische Inhalte stoßen, die Ihrer Meinung nach von ElevenLabs stammen könnten, teilen Sie uns dies bitte mit.
- Unterstützung behördlicher Maßnahmen. Wir sind davon überzeugt, dass staatliches Handeln zur Verhinderung von Missbrauch von entscheidender Bedeutung ist. Im Juli gaben wir unsere Unterstützung für den Protect Elections from Deceptive AI Act (Gesetz zum Schutz von Wahlen vor betrügerischer KI) bekannt. Dabei handelt es sich um ein parteiübergreifendes US-Gesetz, das von den Senatoren Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper und Marsha Blackburn angeführt wird und das es erlaubt, gegen Personen vorzugehen, die KI im Wahlkampf zur Wählertäuschung einsetzen. Wir werden weiterhin mit politischen Entscheidungsträgern in den USA und auf der ganzen Welt an Initiativen zur KI-Sicherheit arbeiten, darunter auch solche im Zusammenhang mit Wahlen.
Herkunft und Transparenz
Die eindeutige Identifizierung KI-generierter Inhalte, auch durch umfassende Zusammenarbeit, bleibt ein zentraler Aspekt der verantwortungsvollen Entwicklungsmaßnahmen von ElevenLabs.
- KI-Sprachklassifikator. Unser KI-Sprachklassifikator, der seit Juni 2023 öffentlich verfügbar ist,, ermöglicht es allen Nutzern, eine Audioprobe hochzuladen, um zu analysieren, ob sie von ElevenLabs stammt. Durch dieses Tool möchten wir die Verbreitung von Falschinformationen einschränken, indem wir die Identifizierung der Audioquelle erleichtern.
- Zusammenarbeit mit der Wirtschaft. Wenn es um die Herkunft und Transparenz von KI-Inhalten geht, können wir das nicht alleine bewältigen – es bedarf branchenweiter Anstrengungen. Deshalb sind wir Teil der Content Authenticity Initiative (CAI), die große Medien- und Technologieunternehmen zusammenbringt, um Standards für die Herkunft zu entwickeln. Durch die Coalition for Content Provenance and Authenticity (C2PA)implementieren wir diese Standards, indem wir kryptografisch signierte Metadaten in das auf unserer Plattform generierte Audio einbetten. Dadurch wird sichergestellt, dass die Kanäle zur Inhaltsverbreitung, die die Tools von CAI verwenden – wie etwa führende Social-Media-Plattformen –, unser Audio als KI-generiert erkennen können.
- Unterstützung von Erkennungstools von Drittanbietern. Wir arbeiten mit externen KI-Sicherheitsunternehmen zusammen, um ihre Tools zur Identifizierung KI-generierter Inhalte, darunter auch wahlbezogene Deepfakes, zu verbessern. Im Juli sind wir eine Partnerschaft mit Reality Defender eingegangen. Dabei handelt es sich um ein Cybersicherheitsunternehmen mit Schwerpunkt auf der Erkennung von Deepfakes, das Zugriff auf unsere Modelle und Daten gewährt, um seine Erkennungstools zu verbessern. Unsere Partnerschaft hilft den Kunden von Reality Defender, darunter Behörden und Großunternehmen, KI-generierte Bedrohungen in Echtzeit zu erkennen und Menschen auf der ganzen Welt vor Falschinformationen und ausgeklügelten Betrugsmaschen zu schützen. Wir sind auch an anderen akademischen und wirtschaftlichen Projekten beteiligt, darunter Forschungsinitiativen der School of Information der University of California, Berkeley, um die Erkennung von KI-generierten Inhalten zu unterstützen.
In den kommenden Tagen und Wochen werden wir diese Sicherheitsvorkehrungen weiter ausbauen und verfeinern. Wir sind uns bewusst, dass wir nicht alle Einsatzmöglichkeiten unserer Tools vorhersehen können. Jedoch werden wir auch weiterhin energisch gegen jede Form des Missbrauchs vorgehen und gleichzeitig unsere Technologie einsetzen, um eine besser vernetzte und besser informierte Welt zu schaffen.