Black Friday

Zrealizuj

Aktualizacja naszych przygotowań do wyborów

W 2024 roku, kluczowym roku wyborczym w wielu krajach, podjęliśmy konkretne kroki, aby zapobiec niewłaściwemu użyciu naszych narzędzi

W ElevenLabs dążymy do tego, by treści były dostępne i angażujące w każdym języku, głosie i dźwięku. Wierzymy w moc naszej technologii, która tworzy bardziej połączony i poinformowany świat, a tym samym wspiera proces demokratyczny. umożliwiliśmy ustawodawcom odzyskanie ich głosów, pomagając im dalej walczyć o swoich wyborców i ważne dla nich sprawy. Zrobiliśmy to samo dla aktywistów, wspierając ich wysiłki na rzecz zmian i poprawy życia. Nasza praca nad usuwaniem barier w dostępie do wiedzy, uczestnictwa i społeczności dopiero się zaczyna.

Wierzymy również, że to nasza wspólna odpowiedzialność – przemysł, rządy, społeczeństwo obywatelskie i jednostki – nie tylko promować proces demokratyczny, ale także go chronić.W 2024 roku, kluczowym roku wyborczym w wielu krajach, podjęliśmy konkretne kroki, aby zapobiec niewłaściwemu użyciu naszych narzędzi. Przed wyborami w USA 5 listopada, oto aktualizacja naszych działań.

Zasady

Zaktualizowaliśmy naszą Politykę Zakazanych Użyć, aby wzmocnić i wyjaśnić nasze zasady dotyczące użycia naszych narzędzi w kontekście wyborów.

  • Zakaz kampanii i podszywania się pod kandydatów.Surowo zabrania się używania naszych narzędzi do kampanii politycznych, w tym promowania lub popierania konkretnego kandydata, sprawy lub stanowiska, a także pozyskiwania głosów lub funduszy. Zabrania się również używania naszych narzędzi do naśladowania głosów kandydatów politycznych i urzędników państwowych.
  • Zakaz tłumienia głosów i zakłócania procesu wyborczego.Zabrania się używania naszych narzędzi do podżegania, angażowania się lub ułatwiania tłumienia głosów lub innych zakłóceń procesów wyborczych lub obywatelskich. Obejmuje to tworzenie, dystrybucję lub ułatwianie rozpowszechniania wprowadzających w błąd informacji.

Zapobieganie

Wzmocniliśmy nasze zabezpieczenia, aby zapobiec niewłaściwemu użyciu naszych narzędzi w kontekście wyborów.

  • Weryfikacja użytkowników.Wszyscy użytkownicy naszych narzędzi do klonowania głosu muszą podać informacje kontaktowe i płatnicze, co pomaga nam blokować konta powiązane z oszukańczą działalnością lub ryzykownymi lokalizacjami już przy rejestracji.
  • Głosy „No-Go”.Nasza technologia No-Go Voice blokuje generowanie głosów setek kandydatów, urzędników i innych postaci politycznych oraz celebrytów. Stale rozszerzamy to zabezpieczenie, aby zwiększyć jego skuteczność, a także monitorujemy i podejmujemy działania wobec użytkowników próbujących generować zablokowane głosy.

Wykrywanie i egzekwowanie

Aby uzupełnić nasze środki zapobiegawcze, zwiększyliśmy nasze możliwości wykrywania i egzekwowania.

  • Monitorowanie niewłaściwego użycia. Nasze ulepszone klasyfikatory, w tym jeden specjalnie zaprojektowany do identyfikacji treści politycznych, wraz z automatyczną moderacją i recenzentami ludzkimi, pomagają nam wykrywać treści naruszające nasze zasady. Współpracujemy również z zewnętrznymi zespołami ds. wywiadu zagrożeń, które dostarczają informacji o potencjalnym niewłaściwym użyciu mającym na celu zakłócenie wyborów, i ustanowiliśmy kanały wymiany informacji z partnerami rządowymi i branżowymi.
  • Silne egzekwowanie. Gdy wykryjemy niewłaściwe użycie, podejmujemy zdecydowane działania, w tym usuwanie głosów, umieszczanie użytkowników na okresie próbnym, banowanie użytkowników z naszej platformy, a jeśli to konieczne, zgłaszanie do władz. Jeśli natkniesz się na problematyczne treści, które mogą pochodzić z ElevenLabs, prosimy daj nam znać.
  • Wsparcie dla działań rządowych.Wierzymy, że działania rządowe są kluczowe w zapobieganiu niewłaściwemu użyciu. W lipcu z dumą ogłosiliśmy nasze wsparcie dla Ustawy o Ochronie Wyborów przed Zwodniczym AI, dwupartyjnej ustawy prowadzonej przez senatorów Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper i Marsha Blackburn, która pociąga do odpowiedzialności osoby używające AI w reklamach kampanijnych do wprowadzania wyborców w błąd. Będziemy nadal współpracować z decydentami w USA i na całym świecie nad inicjatywami dotyczącymi bezpieczeństwa AI, w tym tymi związanymi z wyborami.

Pochodzenie i przejrzystość

Umożliwienie jasnej identyfikacji treści generowanych przez AI, w tym poprzez szeroką współpracę, pozostaje kluczowym aspektem odpowiedzialnego rozwoju ElevenLabs.

  • Klasyfikator Mowy AI.Nasz Klasyfikator Mowy AI, dostępny publicznie od czerwca 2023, pozwala każdemu przesłać próbkę audio do analizy, czy pochodzi z ElevenLabs. Udostępniając to narzędzie publicznie, chcemy ograniczyć rozprzestrzenianie się dezinformacji, ułatwiając identyfikację źródła dźwięku.
  • Współpraca z branżą.Jeśli chodzi o pochodzenie i przejrzystość treści AI, nie możemy działać sami – konieczne jest wspólne działanie całej branży. Dlatego jesteśmy częścią Content Authenticity Initiative (CAI), która łączy główne firmy medialne i technologiczne w celu opracowania standardów dotyczących pochodzenia. Poprzez Coalition for Content Provenance and Authenticity (C2PA), wdrażamy te standardy, osadzając kryptograficznie podpisane metadane w generowanym na naszej platformie dźwięku. To zapewnia, że kanały dystrybucji treści, które przyjmują narzędzia CAI, jak wiodące platformy społecznościowe, mogą rozpoznać nasz dźwięk jako generowany przez AI.
  • Wsparcie dla narzędzi wykrywania zewnętrznego. Współpracujemy z zewnętrznymi firmami zajmującymi się bezpieczeństwem AI, aby poprawić ich narzędzia do identyfikacji treści generowanych przez AI, w tym deepfake'ów związanych z wyborami. W lipcu nawiązaliśmy współpracę z Reality Defender – firmą zajmującą się cyberbezpieczeństwem, skupioną na wykrywaniu deepfake'ów – udostępniając im nasze modele i dane, aby wzmocnić ich narzędzia wykrywania. Nasza współpraca pomaga klientom Reality Defender, w tym rządom i dużym przedsiębiorstwom, wykrywać zagrożenia generowane przez AI w czasie rzeczywistym, chroniąc ludzi na całym świecie przed dezinformacją i zaawansowanymi oszustwami. Jesteśmy również zaangażowani w inne projekty akademickie i komercyjne, w tym inicjatywy badawcze na Uniwersytecie Kalifornijskim w Berkeley, aby rozwijać wykrywanie treści AI.

W nadchodzących dniach i tygodniach będziemy nadal uczyć się i udoskonalać te zabezpieczenia. Rozumiemy, że nie możemy przewidzieć każdego sposobu, w jaki nasze narzędzia mogą być używane. Ale będziemy nadal podejmować zdecydowane działania, aby zapobiegać nadużyciom, jednocześnie wykorzystując naszą technologię do tworzenia bardziej połączonego i poinformowanego świata.

Przeglądaj artykuły zespołu ElevenLabs

ElevenLabs

Twórz z najwyższą jakością dźwięku AI