W centrum uwagi: ElevenLabs na konferencji MIT EmTech Digital

Zwiększanie bezpieczeństwa AI poprzez skupienie się na pochodzeniu, identyfikowalności i moderacji treści

Tydzień temu na konferencji MIT EmTech Digital w Londynie wzięłam udział w panelu dyskusyjnym na temat tego, w jaki sposób biznes, instytucje rządowe i środowisko akademickie mogą współpracować, aby maksymalnie wykorzystać szanse i zaadresować wyzwania związane z zaawansowanymi produktami w dziedzinie sztucznej inteligencji.

Oprócz ElevenLabs w panelu wzięli udział liderzy z Alan Turing Institute, Ada Lovelace Institute i BT. Dyskusję moderowała Melissa Heikkilä z MIT Technology Review.

Trójtorowe podejście do bezpieczeństwa sztucznej inteligencji

W ElevenLabs opracowujemy technologię audio AI, mając świadomość jej wpływu. Nadzorując bezpieczeństwo sztucznej inteligencji, koncentruję się na wspieraniu twórców, firm i użytkowników, a jednocześnie na zapobieganiu nadużyciom i odstraszaniu osób o nieuczciwych zamiarach. Podczas panelu przedstawiłam kroki, które podjęliśmy, aby uczynić ElevenLabs bezpieczniejszym i bardziej innowacyjnym miejscem, i opowiedziałam się za przyjęciem strategii, które priorytetowo traktują rozwiązywanie problemów związanych z bezpieczeństwem AI. Strategie te obejmują:

Pochodzenie: polega na odróżnianiu treści generowanych przez sztuczną inteligencję od treści rzeczywistych poprzez poznanie ich źródeł. Narzędzia do wykrywania sztucznej inteligencji, takie jak klasyfikatory, to modele probabilistyczne szkolone w celu rozpoznawania wyników generowanych przez sztuczną inteligencję. W ElevenLabs opracowaliśmy klasyfikator mowy AI, który umożliwia każdemu przesłanie próbek w celu sprawdzenia, czy pochodzą one z naszej platformy. Współpracujemy również z firmą Loccus, aby udoskonalić możliwości klasyfikacji treści powstałych przy użyciu sztucznej inteligencji. Klasyfikatory nie są jednak panaceum na kwestię pochodzenia treści i mają swoje ograniczenia. Aby sobie z nimi poradzić, opracowano metody wykrywania AI, obejmujące rozwiązania w zakresie metadanych, znaków wodnych i odcisków palców. Popieramy inicjatywy podejmowane w całej branży, takie jak kryptograficznie podpisany standard metadanych C2PA, który odznacza się otwartością i interoperacyjnością oraz mógłby umożliwić etykietowanie treści generowanych przez AI w głównych kanałach dystrybucji, takich jak Instagram lub Facebook.

Identyfikowalność: zapewnia, że treści generowane przez sztuczną inteligencję można powiązać z konkretnym użytkownikiem. Systemy ElevenLabs pozwalają nam łączyć treści generowane na naszej platformie z kontem źródłowym, a nasze narzędzia klonowania głosu są dostępne wyłącznie dla użytkowników, którzy zweryfikowali swoje konta za pomocą danych bankowych. Dzięki skupieniu się na identyfikowalności każda osoba korzystająca z platform AI może zostać pociągnięta do odpowiedzialności za swoje działania, a w razie potrzeby może zostać zidentyfikowana przez organy prawne.

Moderacja: polega na zdefiniowaniu jasnych zasad dotyczących akceptowalnych treści i ich wykorzystania oraz na zapobieganiu tworzeniu przez użytkowników treści niezgodnych z tymi zasadami. W ElevenLabs korzystamy ze zautomatyzowanych systemów do skanowania, oznaczania i blokowania nieodpowiednich treści. Moderatorzy ręcznie sprawdzają zgłoszone treści, aby zapewnić spójne egzekwowanie zasad. Nieustannie udoskonalamy naszą technologię moderacji, aby zapobiegać tworzeniu treści, które mogłyby przynieść szkody zaufaniu publicznemu lub bezpieczeństwu. Punkty końcowe moderacji typu open source, na przykład te udostępniane przez OpenAI, umożliwiają łatwą integrację moderacji komend z dowolnymi aplikacjami AI.

Wspólna praca na rzecz wspólnego celu

Choć priorytetowo traktujemy bezpieczny rozwój sztucznej inteligencji, żadna firma nie poradzi sobie sama z problemem jej niewłaściwego wykorzystania. Podczas panelu uznaliśmy, że konieczna jest szeroka współpraca między firmami technologicznymi, instytucjami rządowymi, grupami obywatelskimi i opinią publiczną, aby stawić czoła zmianom społecznym i środowiskowym oraz zapewnić bezpieczną cyfrową przyszłość. W ElevenLabs dokładamy wszelkich starań, aby utrzymywać otwarty dialog w naszej społeczności i wspierać inicjatywy takie jak Inicjatywa na rzecz autentyczności treści oraz Porozumienie o bezpieczeństwie wyborów, aby zwalczać dezinformację.

Bezpieczeństwo AI z myślą o przyszłości

Podczas panelu wszyscy zgodziliśmy się, że produkty wykorzystujące sztuczną inteligencję muszą być opracowywane i używane w sposób bezpieczny. Jednocześnie musimy pozwolić na ich kreatywne i nieoczywiste zastosowania. W ElevenLabs często widzimy, że nasza platforma jest wykorzystywana do ułatwiania dostępu do treści cyfrowych osobom potrzebującym transkrypcji nagrań audio, a także do przywracania głosu tym, którzy go utracili z powodu SLA i innych schorzeń. Aby umożliwić rozwój zastosowań AI, należy zwiększyć świadomość na temat multimediów AI, zachęcać do krytycznej interakcji z treściami cyfrowymi, promować narzędzia do weryfikacji autentyczności oraz edukować społeczeństwo i instytucje na temat etycznego wykorzystania sztucznej inteligencji.

Odkryj więcej

ElevenLabs

Twórz przy użyciu technologii audio AI zapewniającej najwyższą jakość