Im Fokus: ElevenLabs bei der MIT EmTech Digital

Verbesserung der AI-Sicherheit durch Fokussierung auf Inhaltsherkunft, Rückverfolgbarkeit und Moderation

Letzte Woche nahm ich während der„MIT EmTech Digital“-Konferenz in London an einer Podiumsdiskussion teil. Dabei ging es um die Frage, wie Wirtschaft, Politik und Wissenschaft zusammenarbeiten können, um die Chancen zu maximieren und die Herausforderungen zu bewältigen, die mit fortschrittlichen AI-Produkten verbunden sind.

Neben ElevenLabs waren auch führende Vertreter des Alan Turing Institute, des Ada Lovelace Institute und von BT beteiligt. Melissa Heikkilä vom MIT Technology Review moderierte die Diskussionsrunde.

Dreigleisiger Ansatz zur AI-Sicherheit

Bei ElevenLabs entwickeln wir AI-gestützte Audiotechnologie im Bewusstsein ihrer Auswirkungen. In meiner Funktion als Leiterin für AI-Sicherheit konzentriere ich mich darauf, Entwickler, Unternehmen und Nutzer zu stärken und gleichzeitig Missbrauch zu verhindern und böswillige Akteure abzuschrecken. Während der Podiumsdiskussion skizzierte ich die Schritte, die wir unternommen haben, um ElevenLabs zu einem sichereren und innovativeren Unternehmen zu machen. Außerdem plädierte ich für die Einführung von Strategien, bei denen die Bewältigung von AI-Sicherheitsproblemen im Vordergrund steht. Diese Strategie umfasst folgende Aspekte:

Herkunftsermittlung: beinhaltet die Unterscheidung von AI-generierten Inhalten von echten Inhalten durch das Wissen um ihre Herkunft. Vorgelagerte AI-Erkennungstools wie Klassifikatoren sind Wahrscheinlichkeitsmodelle, die darauf trainiert sind, AI-generierten Output zu erkennen. Bei ElevenLabs haben wir den AI-Sprachklassifikator entwickelt, mit dem alle Nutzer Proben hochladen können, um zu überprüfen, ob sie von unserer Plattform stammen. Wir arbeiten außerdem mit Loccus zusammen, um die Möglichkeiten zur Inhaltsklassifizierung mittels AI zu verbessern. Allerdings stoßen auch Klassifikatoren an gewisse Grenzen bei der Herkunftsermittlung. Aus diesem Grund sind nachgelagerte AI-Erkennungsmethoden entstanden, darunter Metadaten, Wasserzeichen und Fingerabdrucklösungen. Wir unterstützen branchenweite Maßnahmen wie den Standard für kryptografisch signierte Metadaten C2PA, die den Vorteil haben, dass sie offen und interoperabel sind und die Kennzeichnung von AI-generierten Inhalten über die wichtigsten Verbreitungskanäle wie Instagram und Facebook ermöglichen könnten.

Rückverfolgbarkeit: stellt sicher, dass AI-generierte Inhalte auf einzelne Nutzer zurückgeführt werden können. Bei ElevenLabs ermöglichen es unsere Systeme, die auf unserer Plattform generierten Inhalte mit dem Ursprungskonto zu verknüpfen. Außerdem sind unsere Voice-Cloning-Tools nur Nutzern vorbehalten, die ihre Konten mit Bankdaten verifiziert haben. Der Fokus auf Rückverfolgbarkeit sorgt dafür, dass alle Nutzer von AI-Plattformen für ihre Handlungen verantwortlich gemacht und bei Bedarf von den Justizbehörden ermittelt werden können.

Moderation: umfasst die Festlegung klarer Richtlinien für akzeptable Inhalte und deren Nutzung sowie die Verhinderung der Erstellung von Inhalten, die nicht mit diesen Richtlinien übereinstimmen. Bei ElevenLabs verwenden wir automatisierte Systeme, um unangemessene Inhalte zu scannen, zu kennzeichnen und zu sperren. Menschliche Moderatoren überprüfen gekennzeichnete Inhalte, um eine konsistente Durchsetzung der Richtlinien sicherzustellen. Wir entwickeln unsere Moderationstechnologie ständig weiter, um die Erstellung von Inhalten zu verhindern, die das öffentliche Vertrauen oder die Sicherheit beeinträchtigen könnten. Open-Source-Moderationsendpunkte, wie der von OpenAI, ermöglichen eine einfache Integration der sofortigen Moderation in beliebige AI-Anwendungen.

Gemeinsam auf ein gemeinsames Ziel hinarbeiten

Obwohl wir der sicheren AI-Entwicklung höchste Priorität einräumen, kann kein Unternehmen den Missbrauch von AI allein bekämpfen. Während der Podiumsdiskussion haben wir die Notwendigkeit einer umfassenden Zusammenarbeit zwischen Technologieunternehmen, Behörden, Bürgerrechtsgruppen und der Öffentlichkeit anerkannt, um den gesellschaftlichen und ökologischen Veränderungen zu begegnen und eine sichere digitale Zukunft zu gewährleisten. Wir bei ElevenLabs setzen uns dafür ein, einen offenen Dialog in unserer Community aufrechtzuerhalten, und unterstützen Initiativen wie die Content Authenticity Initiative und den Elections Safety Accord, um gegen Falschinformationen vorzugehen.

Zukunftsfähige AI-Sicherheit

Alle Diskussionsteilnehmer waren sich zudem einig, dass AI-Produkte sicher entwickelt und verwendet werden müssen. Gleichzeitig müssen wir auch ihre kreative und unerwartete Verwendung zulassen. Bei ElevenLabs erleben wir häufig, dass unsere Plattform dazu genutzt wird, die Zugänglichkeit digitaler Inhalte für Personen zu verbessern, die Audiotranskriptionen benötigen, und denjenigen ihre Stimme zurückzugeben, die sie aufgrund von ALS und anderen Erkrankungen verloren haben. Damit KI-Anwendungen Erfolg haben, ist es wichtig, das Bewusstsein für KI-Medien zu schärfen, den kritischen Umgang mit digitalen Inhalten zu fördern, Tools zur Echtheitsüberprüfung zu unterstützen und sowohl die Öffentlichkeit als auch Institutionen über den ethischen Einsatz von KI aufzuklären.

Mehr entdecken

ElevenLabs

AI-Audioinhalte in höchster Qualität generieren

Kostenlos registrieren

Haben Sie bereits ein Konto? Anmelden

ElevenLabs – Im Fokus: ElevenLabs bei der MIT EmTech Digital | ElevenLabs