Sicherheit
Sicherheit
KI-Audio, entwickelt für neue Möglichkeiten und positiven Einfluss – mit Verantwortung und Schutzmechanismen, die vor Missbrauch schützen.
Unsere Sicherheitsmission
Bei ElevenLabs sind wir überzeugt vom großen Nutzen von KI-Audio. Unsere Technologie wird von Millionen Menschen und Tausenden Unternehmen genutzt, um Inhalte und Informationen für neue Zielgruppen zugänglich zu machen, Lernwerkzeuge zu entwickeln, immersive Unterhaltung zu ermöglichen, Stimmen für Menschen zurückzubringen, die durch Unfall oder Krankheit nicht mehr sprechen können, und vieles mehr.
Wie bei allen grundlegenden Technologien erkennen wir auch die Risiken bei Missbrauch. Deshalb schützen wir unsere Modelle und Produkte gezielt vor Missbrauch – insbesondere vor Täuschung oder Ausnutzung. Unsere Sicherheitsprinzipien bestimmen unsere tägliche Arbeit und spiegeln sich in konkreten, mehrschichtigen Schutzmaßnahmen wider.
„KI-Sicherheit ist bei ElevenLabs untrennbar mit Innovation verbunden. Die sichere Entwicklung, Bereitstellung und Nutzung unserer Systeme steht im Zentrum unserer Strategie.“

Mati Staniszewski
Co-founder at ElevenLabs
„Die Menge KI-generierter Inhalte wird weiter wachsen. Wir wollen die nötige Transparenz bieten und helfen, die Herkunft digitaler Inhalte zu überprüfen.“

Piotr Dąbkowski
Co-founder at ElevenLabs
Unsere Sicherheitsprinzipien
Unser Sicherheitsprogramm basiert auf folgenden Prinzipien:
Unsere Schutzmaßnahmen
Wir erhöhen gezielt die Hürden für Missbrauch, ohne legitime Nutzer zu beeinträchtigen. Uns ist bewusst, dass kein Sicherheitssystem perfekt ist: Es kann vorkommen, dass Schutzmechanismen versehentlich gute Nutzer blockieren oder böswillige nicht erkennen.
Wir setzen auf ein umfassendes, mehrschichtiges Schutzsystem. Wird eine Ebene umgangen, greifen weitere Schutzmaßnahmen. Unsere Sicherheitsmechanismen entwickeln sich kontinuierlich weiter, um mit den Fortschritten unserer Modelle, Produkte und gegnerischen Taktiken Schritt zu halten.
Informieren
Wir setzen auf externe Standards wie C2PA und unterstützen Initiativen zur Verbesserung von Deepfake-Erkennungstools. Unser KI Audio Classifier ist öffentlich verfügbar, damit andere prüfen können, ob Inhalte mit ElevenLabs erstellt wurden.
Durchsetzen
Kunden, die gegen unsere Richtlinie für verbotene Nutzungen verstoßen, unterliegen Maßnahmen wie Sperrungen bei wiederholten oder schweren Verstößen. Strafbare oder illegale Aktivitäten werden an die Behörden gemeldet.
Erkennen
Wir überwachen unsere Plattform aktiv auf Verstöße gegen unsere Richtlinie für verbotene Nutzungen – mit KI-Klassifizierern, menschlichen Prüfern und internen Untersuchungen. Wir kooperieren mit externen Organisationen, um Hinweise auf möglichen Missbrauch zu erhalten, und bieten der Öffentlichkeit eine Möglichkeit, Missbrauch zu melden.
Vorbeugen
Wir testen unsere Modelle vor Veröffentlichung intensiv und prüfen unsere Kunden bereits bei der Anmeldung. Zudem integrieren wir Funktionen, die Missbrauch erschweren – etwa das Blockieren des Klonens von Prominenten- und anderen Hochrisiko-Stimmen sowie die technische Verifizierung für den Zugang zu unserem Professional Voice Cloning Tool.
Sicherheits-Partnerschaftsprogramm
Wir unterstützen führende Organisationen bei der Entwicklung technischer Lösungen zur Echtzeit-Erkennung von Deepfakes.
Inhalt melden
Wenn Sie Inhalte finden, die Bedenken hervorrufen und vermutlich mit unseren Tools erstellt wurden, melden Sie diese bitte hier.
Richtlinie für verbotene Inhalte & Nutzungen
Erfahren Sie, welche Inhalte und Aktivitäten bei der Nutzung unserer Tools nicht erlaubt sind.
ElevenLabs KI Sprachklassifizierer
Mit unserem KI Sprachklassifizierer können Sie erkennen, ob eine Audiodatei mit ElevenLabs erstellt wurde.
Koalition für Herkunft und Authentizität von Inhalten
Ein offener technischer Standard, der die Rückverfolgung des Ursprungs von Medien ermöglicht.
Initiative für Inhaltsauthentizität
Förderung eines offenen Industriestandards für die Authentizität und Herkunft von Inhalten.