![](/_next/image?url=https%3A%2F%2Feleven-public-cdn.elevenlabs.io%2Fpayloadcms%2F4g2vn0r2rkd-How%20ElevenLabs%20is%20Preparing%20for%20Elections%20in%202024.webp&w=3840&q=95)
Jak ElevenLabs przygotowuje się do wyborów w 2024 r.
Naszym priorytetem jest zapewnienie bezpiecznego rozwoju, wdrażania i użytkowania naszych systemów
Zwiększanie bezpieczeństwa AI poprzez skupienie się na pochodzeniu, identyfikowalności i moderacji treści
Oprócz ElevenLabs w panelu wzięli udział liderzy z Alan Turing Institute, Ada Lovelace Institute i BT. Dyskusję moderowała Melissa Heikkilä z MIT Technology Review.
W ElevenLabs opracowujemy technologię audio AI, mając świadomość jej wpływu. Nadzorując bezpieczeństwo sztucznej inteligencji, koncentruję się na wspieraniu twórców, firm i użytkowników, a jednocześnie na zapobieganiu nadużyciom i odstraszaniu osób o nieuczciwych zamiarach. Podczas panelu przedstawiłam kroki, które podjęliśmy, aby uczynić ElevenLabs bezpieczniejszym i bardziej innowacyjnym miejscem, i opowiedziałam się za przyjęciem strategii, które priorytetowo traktują rozwiązywanie problemów związanych z bezpieczeństwem AI. Strategie te obejmują:
Identyfikowalność: zapewnia, że treści generowane przez sztuczną inteligencję można powiązać z konkretnym użytkownikiem. Systemy ElevenLabs pozwalają nam łączyć treści generowane na naszej platformie z kontem źródłowym, a nasze narzędzia klonowania głosu są dostępne wyłącznie dla użytkowników, którzy zweryfikowali swoje konta za pomocą danych bankowych. Dzięki skupieniu się na identyfikowalności każda osoba korzystająca z platform AI może zostać pociągnięta do odpowiedzialności za swoje działania, a w razie potrzeby może zostać zidentyfikowana przez organy prawne.
Choć priorytetowo traktujemy bezpieczny rozwój sztucznej inteligencji, żadna firma nie poradzi sobie sama z problemem jej niewłaściwego wykorzystania. Podczas panelu uznaliśmy, że konieczna jest szeroka współpraca między firmami technologicznymi, instytucjami rządowymi, grupami obywatelskimi i opinią publiczną, aby stawić czoła zmianom społecznym i środowiskowym oraz zapewnić bezpieczną cyfrową przyszłość. W ElevenLabs dokładamy wszelkich starań, aby utrzymywać otwarty dialog w naszej społeczności i wspierać inicjatywy takie jak Inicjatywa na rzecz autentyczności treści oraz Porozumienie o bezpieczeństwie wyborów, aby zwalczać dezinformację.
Podczas panelu wszyscy zgodziliśmy się, że produkty wykorzystujące sztuczną inteligencję muszą być opracowywane i używane w sposób bezpieczny. Jednocześnie musimy pozwolić na ich kreatywne i nieoczywiste zastosowania. W ElevenLabs często widzimy, że nasza platforma jest wykorzystywana do ułatwiania dostępu do treści cyfrowych osobom potrzebującym transkrypcji nagrań audio, a także do przywracania głosu tym, którzy go utracili z powodu SLA i innych schorzeń. Aby umożliwić rozwój zastosowań AI, należy zwiększyć świadomość na temat multimediów AI, zachęcać do krytycznej interakcji z treściami cyfrowymi, promować narzędzia do weryfikacji autentyczności oraz edukować społeczeństwo i instytucje na temat etycznego wykorzystania sztucznej inteligencji.
Naszym priorytetem jest zapewnienie bezpiecznego rozwoju, wdrażania i użytkowania naszych systemów
Zapewnienie uczciwości wyborów poprzez odpowiedzialny rozwój sztucznej inteligencji