Wir setzen uns für die sichere Nutzung unserer führenden KI-Audiotechnologie ein.
Audio-KI hilft, Sprach- und Kommunikationsbarrieren zu überwinden — und ebnet so den Weg für eine vernetztere, kreativere und produktivere Welt. Gleichzeitig kann sie auch von böswilligen Akteuren missbraucht werden. Unsere Mission ist es, die besten Audio-KI-Produkte zu entwickeln und bereitzustellen — und dabei fortlaufend Schutzmechanismen zu verbessern, um Missbrauch zu verhindern.
“KI-Sicherheit ist untrennbar mit Innovation bei ElevenLabs verbunden. Die sichere Entwicklung, Bereitstellung und Nutzung unserer Systeme steht im Zentrum unserer Strategie”
Mati Staniszewski
Mitgründer von ElevenLabs
Unsere Mission ist es, Inhalte in jeder Sprache und mit jeder Stimme zugänglich zu machen
Wir sind ein vertrauenswürdiger Anbieter von Audio-KI für Millionen von Nutzerinnen und Nutzern weltweit — ebenso wie für führende Verlags- und Medienunternehmen, darunter:
ElevenLabs-Sicherheit in der Praxis
Unser Ansatz zur Risikominimierung und zum verantwortungsvollen Einsatz von Audio-KI basiert auf drei Prinzipien: Moderation, Verantwortlichkeit und Herkunft.
Moderation
Wir überwachen aktiv Inhalte, die mit unserer Technologie erstellt werden.

Automatisierte Moderation
Unsere Systeme scannen generierte Inhalte automatisiert auf Verstöße gegen unsere Richtlinien. Verstöße werden entweder direkt blockiert oder zur Überprüfung markiert.
Menschliche Moderation
Ein wachsendes Team von Moderatorinnen und Moderatoren prüft markierte Inhalte und sorgt dafür, dass unsere Richtlinien konsequent umgesetzt werden.
No-go-Stimmen
Zusätzlich zu unserem Verbot von Imitationen setzen wir ein Sicherheitstool ein, das die Erstellung von Inhalten mit besonders risikobehafteten Stimmen erkennt und verhindert.
voiceCAPTCHA
Wir haben eine proprietäre Sprachverifikationstechnologie entwickelt, die unbefugte Nutzung von Voice-Cloning-Tools minimiert. Sie stellt sicher, dass nur die eigene Stimme mit unserem hochpräzisen Voice-Cloning-Tool geklont werden kann.
Richtlinie zu verbotenen Inhalten und Verwendungen
Erfahren Sie, für welche Inhalte und Aktivitäten unsere Tools nicht verwendet werden dürfen.
Verantwortung
Missbrauch muss Konsequenzen haben.

Rückverfolgbarkeit
Wenn unsere Tools missbraucht werden, wollen wir wissen, wer dafür verantwortlich ist. Unsere Systeme ermöglichen es, generierte Inhalte dem Ursprungskonto zuzuordnen. Der Zugang zu unseren Voice-Cloning-Tools ist nur für verifizierte Nutzerinnen und Nutzer mit hinterlegten Zahlungsdaten möglich.
Sperrungen
Wer gegen unsere Richtlinien verstößt, hat auf unserer Plattform keinen Platz. Solche Konten werden dauerhaft gesperrt.
Zusammenarbeit mit Strafverfolgungsbehörden
Wir arbeiten mit den zuständigen Behörden zusammen und melden in geeigneten Fällen illegale Inhalte oder Aktivitäten.
Inhalt der Meldung
Wenn Sie auf Inhalte stoßen, die Anlass zur Sorge geben, und der Meinung sind, dass diese mit unseren Tools erstellt wurden, melden Sie dies bitte hier.
Herkunft
KI-generiertes Audio sollte erkennbar sein.

KI Speech Classifier
Wir haben ein hochpräzises Erkennungstool entwickelt, das bei nicht veränderten Samples 99 % Genauigkeit und 80 % Recall erreicht. Es ermöglicht jeder Person zu überprüfen, ob eine Audiodatei mit unserer Technologie erstellt wurde.
Standards zur KI-Erkennung
Techniken wie Metadaten, Wasserzeichen und Fingerprinting sind entscheidend. Wir unterstützen die branchenweite Einführung von Standards zur Herkunftskennzeichnung, etwa durch die C2PA-Initiative.
Zusammenarbeit. Wir laden andere KI-Unternehmen, die Wissenschaft und politische Entscheidungsträger ein, gemeinsam an der Entwicklung branchenweiter Methoden zur Erkennung von KI-Inhalten zu arbeiten. Wir sind Teil der Content Authenticity Initiative und arbeiten mit Inhaltsdistributoren und der Zivilgesellschaft zusammen, um Transparenz für AI-Inhalte zu schaffen. Wir unterstützen auch staatliche Maßnahmen zur KI-Sicherheit und sind Mitglied des AI Safety Institute Consortium des National Institute of Standards and Technology (NIST).
KI Speech Classifier von ElevenLabs
Mit unserem KI Speech Classifier lässt sich erkennen, ob ein Audioclip mit ElevenLabs erzeugt wurde.
Coalition for Content Provenance and Authenticity
Ein offener technischer Standard zur Nachverfolgung der Herkunft von Inhalten.
Content Authenticity Initiative
Förderung der Einführung eines offenen Industriestandards für die Authentizität und Herkunft von Inhalten.
“Das Volumen KI-generierter Inhalte wird weiter steigen. Wir wollen die nötige Transparenz schaffen und helfen, die Herkunft digitaler Inhalte zu verifizieren.”
Piotr Dąbkowski
Mitgründer von ElevenLabs
Fokus: Wahljahr 2024
Die Hälfte der Weltbevölkerung wird 2024 wählen. Um diese Wahlen vorzubereiten, konzentrieren wir uns auf die sichere und faire Nutzung von KI-Stimmen.
Als Erstunterzeichner des Tech Accord on Election Safety arbeiten wir gemeinsam mit Unternehmen wie Amazon, Google, Meta, Microsoft, OpenAI und anderen daran, den Missbrauch von KI bei globalen Wahlen zu verhindern.
“Da KI zunehmend Teil unseres Alltags wird, setzen wir uns dafür ein, vertrauenswürdige Produkte zu entwickeln und gemeinsam mit Partnern Schutzmechanismen gegen Missbrauch aufzubauen.”
Aleksandra Pedraszewska
KI Sicherheit bei ElevenLabs