Mit unserem AI-Speech Classifier können Sie erkennen, ob ein Audioclip mit ElevenLabs erstellt wurde
So bereitet sich ElevenLabs auf die Wahlen im Jahr 2024 vor
Für uns hat es oberste Priorität, dass unsere Systeme sicher entwickelt, eingesetzt und verwendet werden.
Im Laufe des Jahres 2024 finden weltweit zahlreiche Wahlen statt. Während die Wahltermine immer näher rücken, konzentrieren wir uns darauf, für eine sichere und faire Nutzung von AI-generierten Stimmen zu sorgen.
Unsere Technologie entstand aus unserem Ziel, Sprachbarrieren abzubauen und das globale Verständnis zu stärken. Sie findet weiterhin inspirierende Anwendung in den Bereichen Bildung, Unterhaltung und Barrierefreiheit und sorgt gleichzeitig dafür, dass die Inhalte ansprechender und integrativer werden.
Wir sind uns jedoch der sich verändernden Landschaft der AI-Technologie und ihrer Auswirkungen auf den politischen Prozess bewusst. Die Gewährleistung der sicheren Entwicklung, Bereitstellung und Nutzung unserer Systeme hat für uns oberste Priorität. Aus diesem Grund ergreifen wir zusätzliche Maßnahmen, um Missbrauch und die Verbreitung von Falschinformationen im Zuge der technologischen Weiterentwicklung zu bekämpfen.
Missbrauch verhindern
In unserem ständigen Bemühen, ein positives Erlebnis für alle Nutzer unserer Plattform zu gewährleisten, ergreifen wir besondere Maßnahmen, um zu verhindern, dass AI-generierte Stimmen zur Verbreitung von Falschinformationen verwendet werden. Unsere Nutzungsbedingungen verbieten es bereits, unsere Plattform zu nutzen, um sich als eine andere Person auszugeben oder anderen zu schaden, aber wir ergreifen eine zusätzliche Maßnahme, indem wir ein „Stimmenverbot“ einführen. Diese Schutzmaßnahme dient dazu, künstliche Stimmen zu erkennen und deren Erstellung zu verhindern, wenn damit politische Kandidaten imitiert werden, die aktiv an Wahlen teilnehmen, angefangen bei denen in den USA und Großbritannien. Wir arbeiten daran, diese Schutzmaßnahme auf andere Sprachen und Wahlzyklen auszuweiten. Darüber hinaus streben wir eine kontinuierliche Weiterentwicklung dieser Maßnahme durch praktische Tests und Rückmeldungen an. Wir laden andere AI-Unternehmen und Partner ein, gemeinsam mit uns nach Möglichkeiten zu suchen, diese Schutzmaßnahmen wirksam zu verbessern und auszuweiten.
Darüber hinaus testen wir aktiv neue Möglichkeiten, um der Erstellung politischer Inhalte entgegenzuwirken, die entweder die Teilnahme am demokratischen Prozess beeinträchtigen oder Wähler in die Irre führen könnten. Dank unserer Systeme ist es uns schon immer möglich, auf unserer Plattform generierte Inhalte auf das Ursprungskonto zurückzuverfolgen. Wir entwickeln aktiv neue Moderations- und interne Überprüfungsmechanismen, um Missbrauch wirksamer zu identifizieren und zu bekämpfen. Eine falsche Darstellung von Wahlprozessen, der Wahlberechtigung oder des Wertes der Stimmabgabe untergräbt die Demokratie. Aus diesem Grund lehnen wir den Einsatz von AI zur Schaffung von Verwirrung oder Misstrauen gegenüber dem demokratischen System entschieden ab. Die Nutzung unserer Technologie für politische Wahlkampfaktivitäten, bei denen die Identität anderer Personen nachgeahmt wird, Chatbots erstellt werden oder Roboteranrufe erfolgen, stellt einen direkten Verstoß gegen unsere Bedingungen dar.
Transparenz zu AI-generierten Inhalten
Ein zentraler Aspekt unserer verantwortungsvollen Entwicklungsmaßnahmen besteht darin, eine eindeutige Bestimmung von AI-generierten Inhalten zu ermöglichen.
Vergangenen Juni veröffentlichten wir den AI-Speech Classifier.Damit können alle Nutzer Audioproben hochladen und analysieren, ob es sich bei der Probe um AI-generiertes Audio von ElevenLabs handelt. Unser Ziel ist es, die Verbreitung von Falschinformationen zu verhindern, indem wir die Quelle von Audioinhalten leichter überprüfbar machen. Wenn Sie an einer Partnerschaft oder Integration interessiert sind, kontaktieren Sie uns bitte unter legal@elevenlabs.io. Wenn Sie auf unserer Plattform beunruhigende Inhalte feststellen oder glauben, dass solche Inhalte auf unserer Plattform erstellt wurde, so kontaktieren Sie uns bitte hier.
Innovation und Verantwortung im Gleichgewicht
Wir sind begeistert von den positiven Anwendungen, die unsere Community immer wieder für unsere Technologie findet. Im Jahr 2024 und darüber hinaus bleiben wir der verantwortungsvollen Innovation verpflichtet, indem wir einen kontinuierlichen Dialog mit unserer Community, unseren Partnern, der Zivilgesellschaft und wichtigen Interessengruppen führen.
Mehr entdecken

ElevenLabs unterzeichnet Technologieabkommen (Tech Accord) zur Wahlsicherheit
Gewährleistung der Integrität von Wahlen durch verantwortungsvolle AI-Entwicklung

ElevenLabs und Reality Defender kooperieren bei AI-Sicherheitsinitiativen
Reality Defender verbessert AI-Erkennungssysteme durch Nutzung der Audio-AI-Daten und -Erkenntnisse von ElevenLabs