ElevenLabs und Reality Defender kooperieren bei AI-Sicherheitsinitiativen

Reality Defender verbessert AI-Erkennungssysteme durch Nutzung der Audio-AI-Daten und -Erkenntnisse von ElevenLabs

Reality Defender Social Preview

Wir kooperieren mit Reality Defender, einem auf die Erkennung von Deepfakes spezialisierten Cybersicherheitsunternehmen, um die Entwicklung von Modellen zur Erkennung von Audio-Deepfakes voranzutreiben.

Ziel der Partnerschaft ist es, einen verbesserten Schutz vor Audio-Deepfakes zu bieten, indem mit unseren proprietären Modellen und Methoden die Wirksamkeit und Robustheit der Erkennungswerkzeuge von Reality Defender verbessert werden. Dadurch können die Kunden von Reality Defender, zu denen auch Behörden und internationale Unternehmen gehören, AI-generierte Bedrohungen in Echtzeit erkennen und abwehren. Folglich können Millionen von Menschen vor Falschinformationen und ausgeklügeltem Betrug geschützt werden.

Die Zusammenarbeit baut auf unseren bestehenden Initiativen auf, um die verantwortungsvolle Entwicklung und transparente Nutzung von Audio-AI durch Moderation und Rechenschaft zu gewährleisten. Dazu gehört auch der Einsatz technischer Mittel, um die Erstellung verbotener Inhalte zu verhindern und böswillige Akteure zu identifizieren. Lesen Sie mehr über unsere laufenden Sicherheitsinitiativen hier.

„Wir bei ElevenLabs arbeiten jeden Tag daran, bestmögliche Sicherheitsvorkehrungen zu entwickeln und zu implementieren, die den Missbrauch unserer Produkte verhindern. Die Zusammenarbeit mit anderen Technologieunternehmen, der Wissenschaft und der Politik bei der Entwicklung zuverlässiger Methoden zur Erkennung von AI-Inhalten ist eine wichtige Säule unserer Sicherheitsmaßnahmen“, so Aleksandra Pedraszewska, Leiterin der AI-Sicherheit bei ElevenLabs. „Wir freuen uns über die Partnerschaft mit Reality Defender, einem führenden Unternehmen im Bereich der Erkennung AI-generierter Informationen, um neue Sicherheitsvorkehrungen zu entwickeln, die böswillige Akteure von der Nutzung unserer Tools abhalten.“

Dank des patentierten Multimodell-Ansatzes von Reality Defender kann die cloudbasierte Webplattform und API zur Erkennung von Deepfakes zuverlässig Betrug, Desinformationskampagnen und schädliche Deepfakes mit hoher Genauigkeit identifizieren. Durch die Kombination unserer Expertise im Bereich audiobasierter generativer AI mit den erweiterten Erkennungsfunktionen von Reality Defender wird die Partnerschaft einen beispiellosen Schutz vor AI-generierten Bedrohungen bieten. All dies steht ganz im Zeichen unserer Verpflichtung, die Integrität und Sicherheit der demokratischen Wahlen im Jahr 2024 durch das AI Elections Accord zu gewährleisten.

„Wir freuen uns sehr über die Partnerschaft mit ElevenLabs, einem Pionier im Bereich der Audio-AI-Tools“, sagt Ben Colman, Mitgründer und CEO von Reality Defender. „Das Engagement von ElevenLabs für AI-Sicherheit und verantwortungsvolle AI-Entwicklung steht im Einklang mit unserem Ziel, Deepfakes zu erkennen und zu verhindern. Diese für Reality Defender einmalige Zusammenarbeit wird es uns ermöglichen, eine hochmoderne Audioerkennung bereitzustellen, die Kriminellen und Betrügern immer um mehrere Schritte voraus ist.“

Mehr entdecken

ElevenLabs

AI-Audioinhalte in höchster Qualität generieren

Kostenlos registrieren

Haben Sie bereits ein Konto? Anmelden

ElevenLabs und Reality Defender kooperieren bei AI-Sicherheit | ElevenLabs