Aktualizacja dotycząca przygotowań do wyborów

Przez cały rok 2024 — kluczowy rok wyborów na całym świecie — podejmowaliśmy konkretne kroki w celu zapobiegania niewłaściwemu wykorzystaniu naszych narzędzi

W ElevenLabs dbamy o to, aby treści były dostępne i angażujące dla wszystkich odbiorców — niezależnie od języka, głosu i dźwięku. Głęboko wierzymy w moc naszej technologii, która może stworzyć bardziej połączony i świadomy świat, a tym samym stać się siłą napędową dobra w procesie demokratycznym. Przywróciliśmy głos prawodawcom , pomagając im w dalszej walce o wyborców i sprawy, które są im bliskie. Zrobiliśmy to samo dla aktywistów, wspierając ich wysiłki na rzecz zmiany i poprawy jakości życia. A nasza praca nad usuwaniem barier dla wiedzy, aktywności obywatelskiej i życia społecznego dopiero się rozpoczęła. 

Wierzymy również, że to od nas wszystkich – branży, instytucji rządowych, społeczeństwa obywatelskiego i jednostek – zależy nie tylko promowanie procesu demokratycznego, ale także jego ochrona. Przez cały rok 2024, który jest kluczowym rokiem wyborczym na całym świecie, podjęliśmy konkretne kroki mające na celu zapobieganie niewłaściwemu wykorzystaniu naszych narzędzi. W przededniu wyborów w USA 5 listopada przedstawiamy aktualizację dotyczącą naszych działań.

Polityki

Przeprowadziliśmy przegląd naszych Zasad zabronionego wykorzystania , aby doprecyzować i wyjaśnić zasady dotyczące korzystania z naszych narzędzi w kontekście wyborów.

  • Zakaz prowadzenia kampanii i podszywania się pod kandydatów. Surowo zabrania się wykorzystywania naszych narzędzi do prowadzenia kampanii politycznych, w tym promowania lub popierania konkretnego kandydata, kwestii lub stanowiska, a także zabiegania o głosy lub wpłaty pieniężne. Zabraniamy również wykorzystywania naszych narzędzi do naśladowania głosów kandydatów politycznych i wybieranych urzędników państwowych.
  • Zakaz utrudniania głosowania i zakłócania procesu wyborczego. Zabraniamy wykorzystywania naszych narzędzi do ułatwiania, realizowania i podżegania do działań mających na celu utrudnianie głosowania lub zakłócanie procesów wyborczych lub obywatelskich. Obejmuje to tworzenie, szerzenie lub ułatwianie szerzenia wprowadzających w błąd informacji.

Zapobieganie

Wzmocniliśmy zabezpieczenia, aby zapobiec niewłaściwemu wykorzystaniu naszych narzędzi w kontekście wyborów. 

  • Kontrola użytkowników. Wszyscy użytkownicy naszych narzędzi do klonowania głosu muszą podczas rejestracji podać dane kontaktowe i dane płatnicze, co pomaga nam blokować konta powiązane z działaniami oszukańczymi lub z obszarami geograficznymi wysokiego ryzyka.
  • „Głosy niedozwolone”. Nasza technologia „Głosy niedozwolone” blokuje głosy setek kandydatów, urzędników, osobistości politycznych i celebrytów. Nieustannie rozszerzamy tę ochronę, aby zwiększyć jej skuteczność, a także monitorujemy i podejmujemy działania prawne wobec użytkowników, którzy próbują generować zablokowane głosy.

Wykrywanie i egzekwowanie

Aby uzupełnić środki zapobiegawcze, zwiększyliśmy możliwości wykrywania i egzekwowania przepisów.

  • Monitorowanie niewłaściwego wykorzystania. Nasze ulepszone zastrzeżone klasyfikatory, w tym jeden specjalnie zaprojektowany do identyfikowania treści politycznych, a także automatyczna moderacja i fizyczni recenzenci pomagają nam wykrywać treści naruszające nasze warunki. Współpracujemy również z zewnętrznymi zespołami ds. analizy zagrożeń, które dostarczają nam informacji na temat potencjalnych nadużyć mających na celu zakłócenie wyborów. Utworzyliśmy także kanały wymiany informacji z partnerami rządowymi i branżowymi.
  • Surowe egzekwowanie. Po stwierdzeniu nadużycia podejmujemy zdecydowane działania, takie jak usuwanie głosów, zawieszanie użytkowników, blokowanie użytkownikom dostępu do platformy, a w razie potrzeby zgłaszanie sprawy odpowiednim organom. Jeśli natkniesz się na problematyczną treść, która Twoim zdaniem może pochodzić z ElevenLabs, poinformuj nas o tym.
  • Wspieranie działań instytucji rządowych. Uważamy, że działania instytucji rządowych mają kluczowe znaczenie w zapobieganiu nadużyciom. W lipcu z dumą ogłosiliśmy wsparcie dla Ustawy o ochronie wyborów przed oszustwami w dziedzinie sztucznej inteligencji (Protect Elections from Deceptive AI Act), aktu prawnego popieranego przez obie partie amerykańskie pod przewodnictwem senatorów Amy Klobuchar, Josha Hawleya, Chrisa Coonsa, Susan Collins, Marii Cantwell, Todda Younga, Johna Hickenloopera i Marshy Blackburn, który ma na celu pociągnięcie do odpowiedzialności nieuczciwych podmiotów wykorzystujących sztuczną inteligencję w reklamach wyborczych do oszukiwania wyborców. Będziemy nadal współpracować z decydentami w USA i na całym świecie w zakresie inicjatyw na rzecz bezpieczeństwa sztucznej inteligencji, między innymi związanych z wyborami.

Pochodzenie i przejrzystość

Umożliwienie jednoznacznej identyfikacji treści generowanych przez sztuczną inteligencję, także w ramach szerokiej współpracy, pozostaje kluczowym aspektem odpowiedzialnych działań rozwojowych ElevenLabs.

  • Klasyfikator mowy AI. Nasz Klasyfikator mowy AI, dostępny publicznie od czerwca 2023 roku, umożliwia każdemu przesłanie próbki audio w celu przeanalizowania, czy pochodzi ona z ElevenLabs. Udostępniając to narzędzie, dążymy do ograniczenia szerzenia dezinformacji poprzez ułatwienie identyfikacji źródła dźwięku.
  • Obsługa narzędzi wykrywania innych firm. Współpracujemy z firmami zewnętrznymi zajmującymi się bezpieczeństwem AI, aby usprawniać ich narzędzia do identyfikacji generowanych przez AI treści, w tym deepfake’ów związanych z wyborami. W lipcu nawiązaliśmy współpracę partnerską z Reality Defender — firmą z branży cyberbezpieczeństwa wyspecjalizowaną w wykrywaniu deepfake’ów. Zapewniliśmy jej dostęp do naszych modeli i danych w celu udoskonalenia narzędzi wykrywania. Dzięki temu partnerstwu klienci Reality Defender, w tym instytucje rządowe i duże przedsiębiorstwa, mogą w czasie rzeczywistym wykrywać zagrożenia generowane przez sztuczną inteligencję, chroniąc odbiorców na całym świecie przed dezinformacją i wyrafinowanymi oszustwami. Uczestniczymy również w innych projektach akademickich i komercyjnych, w tym w inicjatywach badawczych School of Information Uniwersytetu Kalifornijskiego w Berkeley, w celu udoskonalenia wykrywania treści generowanych przez sztuczną inteligencję.

W nadchodzących dniach i tygodniach będziemy pozyskiwać nową wiedzę i udoskonalać te zabezpieczenia. Zdajemy sobie sprawę, że nie możemy przewidzieć wszystkich sposobów wykorzystania naszych narzędzi. Będziemy jednak nadal podejmować zdecydowane działania zapobiegające nadużyciom, jednocześnie wdrażając naszą technologię w celu stworzenia bardziej połączonego i lepiej poinformowanego świata.

Zobacz więcej

ElevenLabs

Twórz z najwyższą jakością dźwięku AI