Zabezpieczenia

Audio AI stworzone, by otwierać możliwości i pozytywny wpływ, kierowane odpowiedzialnością i zabezpieczeniami chroniącymi ludzi przed nadużyciami.

Nasza misja zabezpieczeń

W ElevenLabs głęboko wierzymy w ogromne korzyści płynące z audio AI. Nasza technologia jest używana przez miliony osób i tysiące firm, aby udostępniać treści i informacje dla odbiorców, dla których wcześniej były one niedostępne, tworzyć angażujące narzędzia edukacyjne, napędzać wciągające doświadczenia rozrywkowe, przywracać głosy osobom, które straciły zdolność mówienia z powodu wypadku lub choroby, i wiele więcej.

Jak w przypadku wszystkich przełomowych technologii, zdajemy sobie sprawę, że niewłaściwe użycie technologii może wyrządzić szkody. Dlatego zobowiązujemy się do ochrony przed niewłaściwym użyciem naszych modeli i produktów – zwłaszcza prób oszustwa lub wykorzystywania innych. Nasze zasady bezpieczeństwa kierują naszą codzienną pracą i są odzwierciedlone w konkretnych, wielowarstwowych zabezpieczeniach zaprojektowanych, aby zapobiegać nadużyciom i na nie reagować.

„Bezpieczeństwo AI jest nierozerwalnie związane z innowacjami w ElevenLabs. Zapewnienie, że nasze systemy są rozwijane, wdrażane i używane bezpiecznie, pozostaje w centrum naszej strategii.”

Mati Staniszewski

Mati Staniszewski

Co-founder at ElevenLabs

„Ilość treści generowanych przez AI będzie nadal rosła. Chcemy zapewnić potrzebną przejrzystość, pomagając weryfikować pochodzenie treści cyfrowych.”

Piotr Dąbkowski

Piotr Dąbkowski

Co-founder at ElevenLabs

Nasze zasady bezpieczeństwa

Nasz program bezpieczeństwa kieruje się następującymi zasadami:

Safety illustration

Nasze zabezpieczenia

Staramy się maksymalnie utrudniać działanie złym aktorom próbującym nadużywać naszych narzędzi, jednocześnie zapewniając płynne doświadczenie dla uczciwych użytkowników. Rozumiemy, że żaden system bezpieczeństwa nie jest doskonały: czasami zabezpieczenia mogą błędnie blokować dobrych aktorów lub nie wychwycić złych.

Wdrażamy kompleksowy zestaw zabezpieczeń w systemie wielowarstwowej obrony. Jeśli jedna warstwa zostanie ominięta, dodatkowe warstwy są gotowe do wychwycenia nadużycia. Nasze mechanizmy bezpieczeństwa ciągle się rozwijają, aby nadążać za postępem w naszych modelach, produktach i taktykach przeciwników.

Informowanie

Włączamy standardy zewnętrzne, takie jak C2PA, i wspieramy zewnętrzne wysiłki na rzecz ulepszania narzędzi do wykrywania deepfake'ów. Publicznie udostępniliśmy wiodący w branży AI Audio Classifier, aby pomóc innym określić, czy treść została wygenerowana przy użyciu ElevenLabs.

Egzekwowanie

Klienci naruszający naszą Politykę Zakazanych Użyć podlegają działaniom egzekucyjnym, w tym zakazom dla uporczywych lub poważnych naruszycieli. Przekazujemy działania przestępcze i inne nielegalne działania organom ścigania.

Wykrywanie

Aktywnie monitorujemy naszą platformę pod kątem naruszeń naszej Polityki Zakazanych Użyć, wykorzystując klasyfikatory AI, recenzentów ludzkich i wewnętrzne dochodzenia. Współpracujemy z zewnętrznymi organizacjami, aby uzyskać informacje o potencjalnych nadużyciach i ustanowiliśmy mechanizm, przez który społeczeństwo może zgłaszać nadużycia.

Zapobieganie

Testujemy nasze modele przed wydaniem i sprawdzamy klientów przy rejestracji. Wbudowujemy funkcje, które odstraszają nieodpowiedzialnych użytkowników, w tym blokowanie klonowania głosów celebrytów i innych wysokiego ryzyka oraz wymaganie weryfikacji technologicznej do dostępu do naszego narzędzia Professional Voice Cloning.

Program partnerski bezpieczeństwa

Wspieramy wiodące organizacje w opracowywaniu technicznych rozwiązań do wykrywania deepfake'ów w czasie rzeczywistym.

Zgłoś treść

Jeśli znajdziesz treść, która budzi obawy i uważasz, że została stworzona za pomocą naszych narzędzi, zgłoś to tutaj.

Polityka zakazanych treści i użyć

Dowiedz się o rodzajach treści i działań, które są niedozwolone przy użyciu naszych narzędzi.

Klasyfikator mowy AI ElevenLabs

Nasz Klasyfikator Mowy AI pozwala wykryć, czy klip audio został stworzony przy użyciu ElevenLabs.

Koalicja na rzecz pochodzenia i autentyczności treści

Otwarty standard techniczny umożliwiający śledzenie pochodzenia mediów.

Inicjatywa autentyczności treści

Promowanie przyjęcia otwartego standardu branżowego dla autentyczności i pochodzenia treści.

Najczęściej zadawane pytania

Najbardziej realistyczna platforma głosowa AI

Background lines