Bei ElevenLabs setzen wir uns dafür ein, Inhalte in jeder Sprache, Stimme und Klang zugänglich und ansprechend zu machen. Wir glauben fest an die Kraft unserer Technologie, eine vernetztere und informiertere Welt zu schaffen und damit einen positiven Beitrag zum demokratischen Prozess zu leisten. Wir haben Gesetzgebern ermöglicht, ihre Stimmen zurückzugewinnen, um weiterhin für ihre Wähler und die ihnen wichtigen Themen zu kämpfen. Dasselbe haben wir für Befürworter getan, um ihre Bemühungen zu unterstützen, Veränderungen herbeizuführen und Leben zu verbessern. Unsere Arbeit, Barrieren zu Wissen, Teilnahme und Gemeinschaft abzubauen, hat gerade erst begonnen.
Wir glauben auch, dass es an uns allen liegt – Industrie, Regierungen, Zivilgesellschaft und Einzelpersonen – nicht nur den demokratischen Prozess zu fördern, sondern ihn auch zu schützen.Im Jahr 2024, einem entscheidenden Wahljahr in Ländern weltweit, haben wir konkrete Schritte unternommen, um den Missbrauch unserer Tools zu verhindern. Vor der US-Wahl am 5. November hier ein Update zu unseren Bemühungen.
Richtlinien
Wir haben unsere Richtlinie zur verbotenen Nutzung überarbeitet, um unsere Regeln zur Nutzung unserer Tools im Kontext von Wahlen zu stärken und zu klären.
- Verbot von Wahlkampf und Nachahmung von Kandidaten.Wir verbieten strikt die Nutzung unserer Tools für politische Kampagnen, einschließlich der Förderung oder Unterstützung eines bestimmten Kandidaten, Themas oder Standpunkts oder der Aufforderung zu Stimmen oder finanziellen Beiträgen. Wir verbieten auch die Nutzung unserer Tools zur Nachahmung der Stimmen politischer Kandidaten und gewählter Regierungsbeamter.
- Verbot von Wählerunterdrückung und Störungen des Wahlprozesses.Wir verbieten die Nutzung unserer Tools zur Anstiftung, Beteiligung oder Ermöglichung von Wählerunterdrückung oder anderen Störungen von Wahl- oder zivilen Prozessen. Dies umfasst die Erstellung, Verbreitung oder Förderung der Verbreitung irreführender Informationen.
Prävention
Wir haben unsere Schutzmaßnahmen verstärkt, um den Missbrauch unserer Tools im Kontext von Wahlen zu verhindern.
- Benutzerüberprüfung.Alle Nutzer unserer Voice-Cloning-Tools müssen Kontakt- und Zahlungsinformationen angeben, was uns hilft, Konten zu blockieren, die mit betrügerischen Aktivitäten oder Hochrisikogebieten verbunden sind.
- „No-Go“-Stimmen.Unsere No-Go-Voice-Technologie blockiert die Stimmen von Hunderten von Kandidaten, gewählten Beamten, anderen politischen Persönlichkeiten und Prominenten. Wir haben diese Schutzmaßnahme kontinuierlich erweitert, um ihre Wirksamkeit zu erhöhen, und überwachen und ergreifen Maßnahmen gegen Nutzer, die versuchen, blockierte Stimmen zu generieren.
Erkennung und Durchsetzung
Um unsere präventiven Maßnahmen zu ergänzen, haben wir unsere Erkennungs- und Durchsetzungsfähigkeiten verstärkt.
- Überwachung auf Missbrauch. Unsere verbesserten proprietären Klassifikatoren, einschließlich eines speziell zur Identifizierung politischer Inhalte entwickelten, zusammen mit automatisierter Moderation und menschlichen Prüfern, helfen uns, Inhalte zu erkennen, die gegen unsere Bedingungen verstoßen. Wir arbeiten auch mit externen Bedrohungsintelligenz-Teams zusammen, die Einblicke in potenziellen Missbrauch geben, der darauf abzielt, Wahlen zu stören, und haben Informationsaustauschkanäle mit Regierungs- und Industriepartnern eingerichtet.
- Starke Durchsetzung. Wenn wir Missbrauch feststellen, ergreifen wir entschlossene Maßnahmen, einschließlich der Entfernung von Stimmen, der Bewährung von Nutzern, des Verbots von Nutzern auf unserer Plattform und, falls angemessen, der Meldung an die Behörden. Wenn Sie auf problematische Inhalte stoßen, die Ihrer Meinung nach von ElevenLabs stammen könnten, lassen Sie es uns bitte wissen.
- Unterstützung von Regierungsbemühungen.Wir glauben, dass staatliches Handeln entscheidend ist, um Missbrauch abzuschrecken. Im Juli waren wir stolz darauf, unsere Unterstützung anzukündigen für den Protect Elections from Deceptive AI Act, eine parteiübergreifende Gesetzgebung unter der Leitung der Senatoren Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper und Marsha Blackburn, die Akteure zur Rechenschaft ziehen würde, die KI in Wahlwerbung nutzen, um Wähler zu täuschen. Wir werden weiterhin mit politischen Entscheidungsträgern in den USA und weltweit an KI-Sicherheitsinitiativen arbeiten, einschließlich solcher, die sich auf Wahlen beziehen.
Herkunft und Transparenz
Die klare Kennzeichnung von KI-generierten Inhalten zu ermöglichen, auch durch breite Zusammenarbeit, bleibt ein zentraler Aspekt der verantwortungsvollen Entwicklungsbemühungen von ElevenLabs.
- KI-Sprachklassifikator.Unser KI-Sprachklassifikator, der seit Juni 2023 öffentlich verfügbar ist, ermöglicht es jedem, eine Audiodatei hochzuladen, um zu analysieren, ob sie von ElevenLabs stammt. Durch die öffentliche Bereitstellung dieses Tools wollen wir die Verbreitung von Fehlinformationen einschränken, indem wir die Quelle von Audio leichter identifizierbar machen.
- Zusammenarbeit mit der Industrie. Wenn es um die Herkunft und Transparenz von KI-Inhalten geht, können wir es nicht allein schaffen – eine branchenweite Anstrengung ist notwendig. Deshalb sind wir Teil der Content Authenticity Initiative (CAI), die große Medien- und Technologieunternehmen vereint, um Standards für die Herkunft zu entwickeln. Durch die Coalition for Content Provenance and Authenticity (C2PA) implementieren wir diese Standards, indem wir kryptografisch signierte Metadaten in die auf unserer Plattform generierten Audiodaten einbetten. Dies stellt sicher, dass die Inhaltsverteilungskanäle, die die Tools der CAI übernehmen, wie führende soziale Medienplattformen, unser Audio als KI-generiert erkennen können.
- Unterstützung von Drittanbieter-Erkennungstools. Wir arbeiten mit Drittanbieter-KI-Sicherheitsunternehmen zusammen, um ihre Tools zur Identifizierung von KI-generierten Inhalten zu verbessern, einschließlich wahlbezogener Deepfakes. Im Juli haben wir eine Partnerschaft geschlossen mit Reality Defender – einem auf Deepfake-Erkennung spezialisierten Cybersicherheitsunternehmen – und ihnen Zugang zu unseren Modellen und Daten gewährt, um ihre Erkennungstools zu stärken. Unsere Partnerschaft hilft den Kunden von Reality Defender, einschließlich Regierungen und großen Unternehmen, KI-generierte Bedrohungen in Echtzeit zu erkennen und Menschen weltweit vor Fehlinformationen und ausgeklügeltem Betrug zu schützen. Wir sind auch an anderen akademischen und kommerziellen Projekten beteiligt, einschließlich Forschungsinitiativen an der School of Information der UC Berkeley, um die Erkennung von KI-Inhalten voranzutreiben.
In den kommenden Tagen und Wochen werden wir weiterhin lernen und diese Schutzmaßnahmen verfeinern. Wir erkennen an, dass wir nicht jede mögliche Nutzung unserer Tools vorhersehen können. Aber wir werden weiterhin entschlossene Maßnahmen ergreifen, um Missbrauch zu verhindern, während wir unsere Technologie einsetzen, um eine vernetztere und informiertere Welt zu schaffen.