Wir setzen uns für die sichere Nutzung unserer führenden KI-Audiotechnologie ein.

Audio-KI hilft, Sprach- und Kommunikationsbarrieren zu überwinden — und ebnet so den Weg für eine vernetztere, kreativere und produktivere Welt. Gleichzeitig kann sie auch von böswilligen Akteuren missbraucht werden. Unsere Mission ist es, die besten Audio-KI-Produkte zu entwickeln und bereitzustellen — und dabei fortlaufend Schutzmechanismen zu verbessern, um Missbrauch zu verhindern.

KI-Sicherheit ist untrennbar mit Innovation bei ElevenLabs verbunden. Die sichere Entwicklung, Bereitstellung und Nutzung unserer Systeme steht im Zentrum unserer Strategie

Mati Staniszewski

Mitgründer von ElevenLabs

Unsere Mission ist es, Inhalte in jeder Sprache und mit jeder Stimme zugänglich zu machen

Wir sind ein vertrauenswürdiger Anbieter von Audio-KI für Millionen von Nutzerinnen und Nutzern weltweit — ebenso wie für führende Verlags- und Medienunternehmen, darunter:

The Washington Post Logo

ElevenLabs-Sicherheit in der Praxis

Unser Ansatz zur Risikominimierung und zum verantwortungsvollen Einsatz von Audio-KI basiert auf drei Prinzipien: Moderation, Verantwortlichkeit und Herkunft.

Moderation

Wir überwachen aktiv Inhalte, die mit unserer Technologie erstellt werden.

Automatisierte Moderation
Unsere Systeme scannen generierte Inhalte automatisiert auf Verstöße gegen unsere Richtlinien. Verstöße werden entweder direkt blockiert oder zur Überprüfung markiert.

Menschliche Moderation
Ein wachsendes Team von Moderatorinnen und Moderatoren prüft markierte Inhalte und sorgt dafür, dass unsere Richtlinien konsequent umgesetzt werden.

No-go-Stimmen
Zusätzlich zu unserem Verbot von Imitationen setzen wir ein Sicherheitstool ein, das die Erstellung von Inhalten mit besonders risikobehafteten Stimmen erkennt und verhindert.

voiceCAPTCHA
Wir haben eine proprietäre Sprachverifikationstechnologie entwickelt, die unbefugte Nutzung von Voice-Cloning-Tools minimiert. Sie stellt sicher, dass nur die eigene Stimme mit unserem hochpräzisen Voice-Cloning-Tool geklont werden kann.

Verantwortung

Missbrauch muss Konsequenzen haben.

Rückverfolgbarkeit
Wenn unsere Tools missbraucht werden, wollen wir wissen, wer dafür verantwortlich ist. Unsere Systeme ermöglichen es, generierte Inhalte dem Ursprungskonto zuzuordnen. Der Zugang zu unseren Voice-Cloning-Tools ist nur für verifizierte Nutzerinnen und Nutzer mit hinterlegten Zahlungsdaten möglich.

Sperrungen
Wer gegen unsere Richtlinien verstößt, hat auf unserer Plattform keinen Platz. Solche Konten werden dauerhaft gesperrt.

Zusammenarbeit mit Strafverfolgungsbehörden
Wir arbeiten mit den zuständigen Behörden zusammen und melden in geeigneten Fällen illegale Inhalte oder Aktivitäten.

Herkunft

KI-generiertes Audio sollte erkennbar sein.

KI Speech Classifier
Wir haben ein hochpräzises Erkennungstool entwickelt, das bei nicht veränderten Samples 99 % Genauigkeit und 80 % Recall erreicht. Es ermöglicht jeder Person zu überprüfen, ob eine Audiodatei mit unserer Technologie erstellt wurde.

Standards zur KI-Erkennung
Techniken wie Metadaten, Wasserzeichen und Fingerprinting sind entscheidend. Wir unterstützen die branchenweite Einführung von Standards zur Herkunftskennzeichnung, etwa durch die C2PA-Initiative.

Zusammenarbeit. Wir laden andere KI-Unternehmen, die Wissenschaft und politische Entscheidungsträger ein, gemeinsam an der Entwicklung branchenweiter Methoden zur Erkennung von KI-Inhalten zu arbeiten. Wir sind Teil der Content Authenticity Initiative und arbeiten mit Inhaltsdistributoren und der Zivilgesellschaft zusammen, um Transparenz für AI-Inhalte zu schaffen. Wir unterstützen auch staatliche Maßnahmen zur KI-Sicherheit und sind Mitglied des AI Safety Institute Consortium des National Institute of Standards and Technology (NIST).

Das Volumen KI-generierter Inhalte wird weiter steigen. Wir wollen die nötige Transparenz schaffen und helfen, die Herkunft digitaler Inhalte zu verifizieren.

Piotr Dąbkowski

Mitgründer von ElevenLabs

Fokus: Wahljahr 2024

Die Hälfte der Weltbevölkerung wird 2024 wählen. Um diese Wahlen vorzubereiten, konzentrieren wir uns auf die sichere und faire Nutzung von KI-Stimmen.

Als Erstunterzeichner des Tech Accord on Election Safety arbeiten wir gemeinsam mit Unternehmen wie Amazon, Google, Meta, Microsoft, OpenAI und anderen daran, den Missbrauch von KI bei globalen Wahlen zu verhindern.

Da KI zunehmend Teil unseres Alltags wird, setzen wir uns dafür ein, vertrauenswürdige Produkte zu entwickeln und gemeinsam mit Partnern Schutzmechanismen gegen Missbrauch aufzubauen.

Aleksandra Pedraszewska

KI Sicherheit bei ElevenLabs

Lesen Sie mehr über unsere Sicherheitsmaßnahmen

Konformität

ElevenLabs

AI-Audioinhalte in höchster Qualität generieren

Kostenlos registrieren

Haben Sie bereits ein Konto? Anmelden