Sicherheit

KI-Audio entwickelt, um Möglichkeiten und positiven Einfluss zu erschließen, geleitet von Verantwortung und Schutzmaßnahmen, die Menschen vor Missbrauch schützen.

Unsere Sicherheitsmission

Bei ElevenLabs glauben wir fest an die enormen Vorteile von KI-Audio. Unsere Technologie wird von Millionen von Menschen und Tausenden von Unternehmen genutzt, um Inhalte und Informationen für Zielgruppen zugänglich zu machen, für die sie zuvor unerreichbar waren, um ansprechende Bildungstools zu erstellen, um immersive Unterhaltungserlebnisse zu ermöglichen, um Stimmen für Menschen zurückzubringen, die durch Unfall oder Krankheit die Fähigkeit zu sprechen verloren haben, und vieles mehr.

Wie bei allen transformativen Technologien erkennen wir auch, dass bei Missbrauch von Technologie Schaden entstehen kann. Deshalb setzen wir uns dafür ein, den Missbrauch unserer Modelle und Produkte zu verhindern – insbesondere Bemühungen, andere zu täuschen oder auszunutzen. Unsere Sicherheitsprinzipien leiten unsere tägliche Arbeit und spiegeln sich in konkreten, mehrschichtigen Schutzmaßnahmen wider, die darauf ausgelegt sind, Missbrauch zu verhindern und zu bekämpfen.

„KI-Sicherheit ist bei ElevenLabs untrennbar mit Innovation verbunden. Die sichere Entwicklung, Bereitstellung und Nutzung unserer Systeme bleibt im Mittelpunkt unserer Strategie.“

Mati Staniszewski

Mati Staniszewski

Co-founder at ElevenLabs

„Das Volumen an KI-generierten Inhalten wird weiter wachsen. Wir wollen die notwendige Transparenz bieten, um die Herkunft digitaler Inhalte zu überprüfen.“

Piotr Dąbkowski

Piotr Dąbkowski

Co-founder at ElevenLabs

Unsere Sicherheitsprinzipien

Unser Sicherheitsprogramm wird von den folgenden Prinzipien geleitet:

Safety illustration

Unsere Schutzmaßnahmen

Wir bemühen uns, die Hürden für schlechte Akteure, die versuchen, unsere Tools zu missbrauchen, zu maximieren, während wir ein nahtloses Erlebnis für legitime Nutzer aufrechterhalten. Wir erkennen an, dass kein Sicherheitssystem perfekt ist: Gelegentlich können Schutzmaßnahmen versehentlich gute Akteure blockieren oder böswillige nicht erfassen.

Wir setzen eine umfassende Reihe von Schutzmaßnahmen in einem mehrschichtigen Verteidigungssystem ein. Wenn eine Schicht umgangen wird, sind die zusätzlichen Schichten dahinter vorhanden, um den Missbrauch zu erfassen. Unsere Sicherheitsmechanismen entwickeln sich kontinuierlich weiter, um mit den Fortschritten in unseren Modellen, Produkten und gegnerischen Taktiken Schritt zu halten.

Informieren

Wir integrieren Drittstandards wie C2PA und unterstützen externe Bemühungen zur Verbesserung von Deepfake-Erkennungstools. Wir haben einen branchenführenden KI-Audio-Klassifikator öffentlich veröffentlicht, um anderen zu helfen, festzustellen, ob ein Inhalt mit ElevenLabs erstellt wurde.

Durchsetzen

Kunden, die gegen unsere Richtlinie für verbotene Nutzung verstoßen, unterliegen Durchsetzungsmaßnahmen, einschließlich Sperren für hartnäckige oder schwerwiegende Verstöße. Wir leiten kriminelle und andere illegale Aktivitäten an die Strafverfolgungsbehörden weiter.

Erkennen

Wir überwachen aktiv unsere Plattform auf Verstöße gegen unsere Richtlinie für verbotene Nutzung, indem wir KI-Klassifikatoren, menschliche Prüfer und interne Untersuchungen einsetzen. Wir arbeiten mit externen Organisationen zusammen, um Einblicke in potenziellen Missbrauch zu erhalten, und haben einen Mechanismus eingerichtet, über den die Öffentlichkeit Missbrauch melden kann.

Verhindern

Wir testen unsere Modelle vor der Veröffentlichung und prüfen unsere Kunden bei der Anmeldung. Wir integrieren auch Produktfunktionen, um schlechte oder unverantwortliche Akteure abzuschrecken, einschließlich der Sperrung des Klonens von Prominenten und anderen hochriskanten Stimmen und der Anforderung einer technologischen Verifizierung für den Zugang zu unserem Professional Voice Cloning Tool.

Sicherheitspartnerschaftsprogramm

Wir unterstützen führende Organisationen bei der Entwicklung technischer Lösungen zur Echtzeiterkennung von Deepfakes.

Inhalte melden

Wenn Sie Inhalte finden, die Bedenken hervorrufen, und glauben, dass sie mit unseren Tools erstellt wurden, melden Sie sie bitte hier.

Richtlinie für verbotene Inhalte & Nutzungen

Erfahren Sie mehr über die Arten von Inhalten und Aktivitäten, die bei der Nutzung unserer Tools nicht erlaubt sind.

ElevenLabs KI-Sprachklassifikator

Unser KI-Sprachklassifikator ermöglicht es Ihnen zu erkennen, ob ein Audioclip mit ElevenLabs erstellt wurde.

Koalition für Inhaltsherkunft und Authentizität

Ein offener technischer Standard, der die Möglichkeit bietet, die Herkunft von Medien zu verfolgen.

Initiative für Inhaltsauthentizität

Förderung der Einführung eines offenen Industriestandards für Inhaltsauthentizität und -herkunft.

Häufig gestellte Fragen

Die realistischste Voice-AI-Plattform

Background lines