
So bereitet sich ElevenLabs auf die Wahlen im Jahr 2024 vor
Für uns hat es oberste Priorität, dass unsere Systeme sicher entwickelt, eingesetzt und verwendet werden.
Verbesserung der AI-Sicherheit durch Fokussierung auf Inhaltsherkunft, Rückverfolgbarkeit und Moderation
Neben ElevenLabs waren auch führende Vertreter des Alan Turing Institute, des Ada Lovelace Institute und von BT beteiligt. Melissa Heikkilä vom MIT Technology Review moderierte die Diskussionsrunde.
Bei ElevenLabs entwickeln wir AI-gestützte Audiotechnologie im Bewusstsein ihrer Auswirkungen. In meiner Funktion als Leiterin für AI-Sicherheit konzentriere ich mich darauf, Entwickler, Unternehmen und Nutzer zu stärken und gleichzeitig Missbrauch zu verhindern und böswillige Akteure abzuschrecken. Während der Podiumsdiskussion skizzierte ich die Schritte, die wir unternommen haben, um ElevenLabs zu einem sichereren und innovativeren Unternehmen zu machen. Außerdem plädierte ich für die Einführung von Strategien, bei denen die Bewältigung von AI-Sicherheitsproblemen im Vordergrund steht. Diese Strategie umfasst folgende Aspekte:
Rückverfolgbarkeit: stellt sicher, dass AI-generierte Inhalte auf einzelne Nutzer zurückgeführt werden können. Bei ElevenLabs ermöglichen es unsere Systeme, die auf unserer Plattform generierten Inhalte mit dem Ursprungskonto zu verknüpfen. Außerdem sind unsere Voice-Cloning-Tools nur Nutzern vorbehalten, die ihre Konten mit Bankdaten verifiziert haben. Der Fokus auf Rückverfolgbarkeit sorgt dafür, dass alle Nutzer von AI-Plattformen für ihre Handlungen verantwortlich gemacht und bei Bedarf von den Justizbehörden ermittelt werden können.
Obwohl wir der sicheren AI-Entwicklung höchste Priorität einräumen, kann kein Unternehmen den Missbrauch von AI allein bekämpfen. Während der Podiumsdiskussion haben wir die Notwendigkeit einer umfassenden Zusammenarbeit zwischen Technologieunternehmen, Behörden, Bürgerrechtsgruppen und der Öffentlichkeit anerkannt, um den gesellschaftlichen und ökologischen Veränderungen zu begegnen und eine sichere digitale Zukunft zu gewährleisten. Wir bei ElevenLabs setzen uns dafür ein, einen offenen Dialog in unserer Community aufrechtzuerhalten, und unterstützen Initiativen wie die Content Authenticity Initiative und den Elections Safety Accord, um gegen Falschinformationen vorzugehen.
Alle Diskussionsteilnehmer waren sich zudem einig, dass AI-Produkte sicher entwickelt und verwendet werden müssen. Gleichzeitig müssen wir auch ihre kreative und unerwartete Verwendung zulassen. Bei ElevenLabs erleben wir häufig, dass unsere Plattform dazu genutzt wird, die Zugänglichkeit digitaler Inhalte für Personen zu verbessern, die Audiotranskriptionen benötigen, und denjenigen ihre Stimme zurückzugeben, die sie aufgrund von ALS und anderen Erkrankungen verloren haben. Damit KI-Anwendungen Erfolg haben, ist es wichtig, das Bewusstsein für KI-Medien zu schärfen, den kritischen Umgang mit digitalen Inhalten zu fördern, Tools zur Echtheitsüberprüfung zu unterstützen und sowohl die Öffentlichkeit als auch Institutionen über den ethischen Einsatz von KI aufzuklären.
Für uns hat es oberste Priorität, dass unsere Systeme sicher entwickelt, eingesetzt und verwendet werden.
Gewährleistung der Integrität von Wahlen durch verantwortungsvolle AI-Entwicklung