Dbamy o bezpieczeństwo korzystania z naszej wiodącej technologii audio AI.
Technologia audio AI pomaga pokonywać bariery językowe i komunikacyjne, tworząc drogę do bardziej skomunikowanego, twórczego i produktywnego świata. Może być też używana w sposób niezgodny z zamiarem. Naszą misją jest tworzenie i wdrażanie najlepszych produktów audio AI. Jednocześnie, aby zapobiegać ich niewłaściwemu wykorzystaniu, wciąż udoskonalamy zabezpieczenia.
“Bezpieczeństwo AI jest w firmie ElevenLabs nierozerwalnie związane z innowacyjnością. Kluczowym elementem naszej strategii pozostaje zapewnienie bezpiecznego opracowywania, wdrażania i użytkowania naszych systemów.”
Mati Staniszewski
Co-founder at ElevenLabs
Naszą misją jest ułatwianie dostępu do treści niezależnie od języka i głosu.
Jesteśmy zaufanym dostawcą produktów audio AI dla milionów użytkowników na całym świecie, a także dla czołowych wydawców i firm mediowych, w tym:
Bezpieczeństwo ElevenLabs w praktyce
Zapewniając korzyści z technologii audio AI odbiorcom na całym świecie, kierujemy się trzema zasadami zarządzania ryzykiem. Są to: moderacja, odpowiedzialnośći znajomość źródła..
Moderacja
Aktywnie monitorujemy treści generowane przy użyciu AI.

Moderacja zautomatyzowana. Nasze zautomatyzowane systemy skanują treści pod kątem naruszeń naszych zasad, blokując je całkowicie lub oznaczając jako wymagające sprawdzenia.
Moderacja ręczna. Coraz liczniejszy zespół moderatorów sprawdza zgłoszone treści i pomaga nam zapewnić spójne stosowanie naszych zasad.
Głosy zabronione. Mimo że nasze zasady zabraniają podszywania się, korzystamy z dodatkowego narzędzia bezpieczeństwa w celu wykrywania tworzenia treści z głosami uznawanymi za szczególnie ryzykowne i zapobiegania im.
voiceCAPTCHA. Opracowaliśmy zastrzeżoną technologię weryfikacji głosu, aby zminimalizować nieautoryzowane użycie narzędzi do klonowania głosu. W ten sposób dbamy o to, by użytkownicy naszego narzędzia do klonowania głosu zapewniającego dużą wierność dźwięku mogli klonować wyłącznie własny głos.
Zabronione treści i zasady użytkowania
Dowiedz się, jakie rodzaje treści i działań są niedozwolone podczas korzystania z naszych narzędzi.
Odpowiedzialność
Uważamy, że niewłaściwe korzystanie z narzędzi musi wiązać się z konsekwencjami.

Identyfikowalność. Gdy ktoś nieuczciwie wykorzystuje nasze narzędzia, chcemy wiedzieć, kim jest. Nasze systemy pozwalają nam zidentyfikować nawet konta źródłowe tworzonych treści, a nasze narzędzia klonowania głosu są dostępne wyłącznie dla użytkowników, którzy zweryfikowali swoje konta za pomocą danych rozliczeniowych.
Blokady. Chcemy, aby osoby naruszające prawo wiedziały, że nie ma dla nich miejsca na naszej platformie. Na stałe blokujemy użytkowników, którzy naruszają nasze zasad.
Współpraca z organami ścigania. Będziemy współpracować z władzami i w stosownych przypadkach zgłaszać lub ujawniać informacje o nielegalnych treściach lub działaniach.
Zgłoś treść
Jeśli znajdziesz treści budzące Twoje obawy i uznasz, że zostały wygenerowane przy użyciu naszych narzędzi, zgłoś je tutaj.
Znajomość źródła
Uważamy, że masz prawo wiedzieć, czy dźwięk został wygenerowany przez AI.

Klasyfikator mowy AI. Opracowaliśmy bardzo precyzyjne narzędzie do wykrywania, które zapewnia 99% dokładności i 80% odtwarzalności, jeśli próbka nie została zmodyfikowana, i pozwala każdemu sprawdzić, czy plik audio mógł zostać wygenerowany przy użyciu naszej technologii.
Standardy wykrywania AI. Uważamy, że narzędzia do wykrywania AI, takie jak metadane, znaki wodne i cyfrowe „odciski palców”, są niezbędne. Wspieramy powszechne przyjęcie standardów branżowych dotyczących znajomości źródła poprzez C2PA.
Współpraca. Zapraszamy firmy z branży AI, środowiska akademickie i decydentów do współpracy nad opracowywaniem branżowych metod wykrywania treści generowanych przez AI. Należymy do inicjatywy Content Authenticity Initiative (Inicjatywa na rzecz autentyczności treści) i współpracujemy z dystrybutorami treści oraz społeczeństwem obywatelskim w celu zapewnienia przejrzystości treści związanych z AI. Wspieramy również działania rządowe na rzecz bezpieczeństwa AI i jesteśmy członkiem amerykańskiego Konsorcjum Instytutu Bezpieczeństwa Sztucznej Inteligencji (AI Safety Institute Consortium) przy Narodowym Instytucie Standaryzacji i Technologii (National Institute of Standards and Technology).
Klasyfikator mowy AI ElevenLabs
Nasz klasyfikator mowy AI pozwala wykryć, czy klip audio został wygenerowany za pomocą narzędzi ElevenLabs.
Koalicja na rzecz jawności źródła i autentyczności treści
Otwarty standard techniczny umożliwiający śledzenie źródła multimediów.
Inicjatywa na rzecz autentyczności treści
Promowanie przyjęcia otwartego standardu branżowego w zakresie autentyczności i znajomości źródeł treści.
“Ilość treści generowanych przez AI będzie stale rosnąć. Chcemy zapewnić niezbędną przejrzystość, pomagając weryfikować źródła treści cyfrowych.”
Piotr Dąbkowski
Co-founder at ElevenLabs
Szczególne ryzyko: wybory w 2024 r.
W 2024 roku będzie głosować połowa świata. Aby przygotować się do tegorocznych wyborów, skupiamy się na promowaniu bezpiecznego i uczciwego wykorzystania głosów generowanych przez AI.
Dlatego jako pierwsi podpisaliśmy porozumienie „Tech Accord on Election Safety” (Współpraca technologiczna na rzecz bezpieczeństwa wyborów) zrzeszające liderów branży, takich jak Amazon, Google, Meta, Microsoft, OpenAI i ElevenLabs, którzy wspólnie podejmują wysiłki na rzecz ochrony globalnych wyborów przed niewłaściwym wykorzystaniem AI.
“Ponieważ AI staje się częścią naszego codziennego życia, zobowiązujemy się do tworzenia godnych zaufania produktów i współpracy z partnerami w celu opracowywania zabezpieczeń przed jej niewłaściwym wykorzystaniem.”
Aleksandra Pedraszewska
AI Safety at ElevenLabs