Einführung von Eleven v3 Alpha

v3 ausprobieren

Wir setzen uns für die sichere Nutzung unserer führenden KI-Audiotechnologie ein.

Audio-KI hilft, Sprach- und Kommunikationsbarrieren zu überwinden — und ebnet so den Weg für eine vernetztere, kreativere und produktivere Welt. Gleichzeitig kann sie auch von böswilligen Akteuren missbraucht werden. Unsere Mission ist es, die besten Audio-KI-Produkte zu entwickeln und bereitzustellen — und dabei fortlaufend Schutzmechanismen zu verbessern, um Missbrauch zu verhindern.

KI-Sicherheit ist untrennbar mit Innovation bei ElevenLabs verbunden. Die sichere Entwicklung, Bereitstellung und Nutzung unserer Systeme steht im Zentrum unserer Strategie
A young man smiling while working at a computer in an office setting.

Mati Staniszewski

Mitgründer von ElevenLabs

Unsere Mission ist es, Inhalte in jeder Sprache und mit jeder Stimme zugänglich zu machen

Wir sind ein vertrauenswürdiger Anbieter von Audio-KI für Millionen von Nutzerinnen und Nutzern weltweit — ebenso wie für führende Verlags- und Medienunternehmen, darunter:

The Washington Post Logo
CNN logo in red text
HarperCollins Publishers logo with a flame and water icon.

ElevenLabs-Sicherheit in der Praxis

Unser Ansatz zur Risikominimierung und zum verantwortungsvollen Einsatz von Audio-KI basiert auf drei Prinzipien: Moderation, Verantwortlichkeit und Herkunft.

Moderation

Wir überwachen aktiv Inhalte, die mit unserer Technologie erstellt werden.

Blurred yellow text box with a warning icon at the bottom left corner.

Automatisierte Moderation
Unsere Systeme scannen generierte Inhalte automatisiert auf Verstöße gegen unsere Richtlinien. Verstöße werden entweder direkt blockiert oder zur Überprüfung markiert.

Menschliche Moderation
Ein wachsendes Team von Moderatorinnen und Moderatoren prüft markierte Inhalte und sorgt dafür, dass unsere Richtlinien konsequent umgesetzt werden.

No-go-Stimmen
Zusätzlich zu unserem Verbot von Imitationen setzen wir ein Sicherheitstool ein, das die Erstellung von Inhalten mit besonders risikobehafteten Stimmen erkennt und verhindert.

voiceCAPTCHA
Wir haben eine proprietäre Sprachverifikationstechnologie entwickelt, die unbefugte Nutzung von Voice-Cloning-Tools minimiert. Sie stellt sicher, dass nur die eigene Stimme mit unserem hochpräzisen Voice-Cloning-Tool geklont werden kann.

Verantwortung

Missbrauch muss Konsequenzen haben.

A digital interface showing a microphone icon, a folder icon, and a green circular pattern with a checkmark.

Rückverfolgbarkeit
Wenn unsere Tools missbraucht werden, wollen wir wissen, wer dafür verantwortlich ist. Unsere Systeme ermöglichen es, generierte Inhalte dem Ursprungskonto zuzuordnen. Der Zugang zu unseren Voice-Cloning-Tools ist nur für verifizierte Nutzerinnen und Nutzer mit hinterlegten Zahlungsdaten möglich.

Sperrungen
Wer gegen unsere Richtlinien verstößt, hat auf unserer Plattform keinen Platz. Solche Konten werden dauerhaft gesperrt.

Zusammenarbeit mit Strafverfolgungsbehörden
Wir arbeiten mit den zuständigen Behörden zusammen und melden in geeigneten Fällen illegale Inhalte oder Aktivitäten.

Herkunft

KI-generiertes Audio sollte erkennbar sein.

Abstract black and white wavy lines on a light background.

KI Speech Classifier
Wir haben ein hochpräzises Erkennungstool entwickelt, das bei nicht veränderten Samples 99 % Genauigkeit und 80 % Recall erreicht. Es ermöglicht jeder Person zu überprüfen, ob eine Audiodatei mit unserer Technologie erstellt wurde.

Standards zur KI-Erkennung
Techniken wie Metadaten, Wasserzeichen und Fingerprinting sind entscheidend. Wir unterstützen die branchenweite Einführung von Standards zur Herkunftskennzeichnung, etwa durch die C2PA-Initiative.

Zusammenarbeit. Wir laden andere KI-Unternehmen, die Wissenschaft und politische Entscheidungsträger ein, gemeinsam an der Entwicklung branchenweiter Methoden zur Erkennung von KI-Inhalten zu arbeiten. Wir sind Teil der Content Authenticity Initiative und arbeiten mit Inhaltsdistributoren und der Zivilgesellschaft zusammen, um Transparenz für AI-Inhalte zu schaffen. Wir unterstützen auch staatliche Maßnahmen zur KI-Sicherheit und sind Mitglied des AI Safety Institute Consortium des National Institute of Standards and Technology (NIST).

Das Volumen KI-generierter Inhalte wird weiter steigen. Wir wollen die nötige Transparenz schaffen und helfen, die Herkunft digitaler Inhalte zu verifizieren.
Young man wearing a white T-shirt with "ElevenLabs" logo, indoors.

Piotr Dąbkowski

Mitgründer von ElevenLabs

Fokus: Wahljahr 2024

Die Hälfte der Weltbevölkerung wird 2024 wählen. Um diese Wahlen vorzubereiten, konzentrieren wir uns auf die sichere und faire Nutzung von KI-Stimmen.

Als Erstunterzeichner des Tech Accord on Election Safety arbeiten wir gemeinsam mit Unternehmen wie Amazon, Google, Meta, Microsoft, OpenAI und anderen daran, den Missbrauch von KI bei globalen Wahlen zu verhindern.

Da KI zunehmend Teil unseres Alltags wird, setzen wir uns dafür ein, vertrauenswürdige Produkte zu entwickeln und gemeinsam mit Partnern Schutzmechanismen gegen Missbrauch aufzubauen.
A woman with shoulder-length blonde hair smiling at the camera against a plain light gray background.

Aleksandra Pedraszewska

KI Sicherheit bei ElevenLabs

Lesen Sie mehr über unsere Sicherheitsmaßnahmen

Konformität

Wenn Sie auf Inhalte stoßen, die gegen unsere Richtlinien zu verbotenen Inhalten und Verwendungen verstoßen, und der Meinung sind, dass diese auf unserer Plattform erstellt wurden, melden Sie dies bitte hier. Nutzer aus der EU können uns hier über Inhalte informieren, die ihrer Ansicht nach rechtswidrig sein könnten (gemäß Artikel 16 des EU-Gesetzes über digitale Dienste). Wir haben außerdem eine zentrale Kontaktstelle für Nutzer aus der EU (gemäß Artikel 12 des EU-Gesetzes über digitale Dienste) eingerichtet, über die sie uns bei anderen Anliegen hier kontaktieren können.

Im Rahmen unseres Einsatzes für die verantwortungsvolle Nutzung von KI hat ElevenLabs Richtlinien für die Zusammenarbeit mit Behörden, auch Strafverfolgungsbehörden, festgelegt. Dies kann bedeuten, dass wir verbotene Inhalte melden oder Informationen dazu weitergeben sowie rechtmäßige Anfragen von Strafverfolgungsbehörden und anderen staatlichen Stellen beantworten. Strafverfolgungsbehörden können rechtmäßige Anfragen stellen, indem sie hier unsere Rechtsabteilung kontaktieren. Gemäß Artikel 11 des EU-Gesetzes über digitale Dienste können Strafverfolgungsbehörden in der EU nichtdringende Rechtsverfahrensanfragen an ElevenLabs Sp. z o.o. richten, indem sie ihre Anfrage über ein Formular hier einreichen. Hierbei handelt es sich um die zentrale Kontaktstelle für die direkte Kommunikation mit der Europäischen Kommission, den Behörden der Mitgliedstaaten und dem Europäischen Gremium für digitale Dienste. Die Behörden können mit Eleven Labs auf Englisch und Polnisch kommunizieren. Sofern rechtlich erforderlich, können internationale Rechtsverfahren ein Rechtshilfeübereinkommen erfordern.

Nutzer aus der EU haben sechs Monate Zeit, um Maßnahme zu widersprechen, die ElevenLabs gegen Ihre Inhalte oder Ihr Konto ergriffen hat. Wenn Ihr Konto oder Ihre Inhalte eingeschränkt wurden, können Sie Widerspruch einlegen, indem Sie auf die erhaltene Benachrichtigung antworten. Sollten Sie gegen das Ergebnis der Meldung über rechtswidrige Inhalte nach dem EU-Gesetz über digitale Dienste Widerspruch einlegen wollen, verwenden Sie bitte das Formular hier.

Nutzer aus der EU können sich zur Beilegung ihrer Streitigkeiten im Zusammenhang mit Inhalts- oder Kontobeschränkungen sowie bei entsprechenden Widersprüchen auch an zertifizierte außergerichtliche Streitschlichtungsstellen wenden. Entscheidungen außergerichtlicher Streitbeilegungsstellen sind nicht bindend.
ElevenLabs

AI-Audioinhalte in höchster Qualität generieren

Kostenlos registrieren

Haben Sie bereits ein Konto? Anmelden