Last week at the MIT EmTech Digital conference in London, I participated in a panel focused on how business, government, and academia can collaborate to maximize opportunities and manage challenges associated with advanced AI products.
Alongside ElevenLabs, the panel included leaders from the Alan Turing Institute, the Ada Lovelace Institute, and BT, with MIT Technology Review’s Melissa Heikkilä moderating the discussion.
AI 안전을 위한 세 가지 접근법
ElevenLabs는 오디오 AI 기술이 미치는 영향을 항상 고려하며 개발합니다. AI 안전을 총괄하는 제 역할에서, 창작자와 기업, 사용자 모두가 안전하게 활용할 수 있도록 지원하면서, 오용과 악의적 사용을 방지하는 데 집중하고 있습니다. 패널 토론에서 ElevenLabs가 더 안전하고 혁신적인 공간이 되기 위해 진행한 여러 조치들을 소개했고, AI 안전 문제 해결을 우선시하는 전략의 도입을 강조했습니다. 주요 전략은 다음과 같습니다:
Provenance: involves distinguishing AI-generated content from real content by understanding its origins. Upstream AI detection tools, such as classifiers, are probabilistic models trained to recognize AI-generated outputs. At ElevenLabs, we’ve developed the AI Speech Classifier that lets anyone upload samples to check if they originate from our platform. We’re also collaborating with Loccus to enhance AI content classification capabilities. Classifiers, however, are not a panacea solution for provenance; they have their limitations. To address them, downstream AI detection methods have emerged, including metadata, watermarks, and fingerprinting solutions. We endorse industry-wide efforts such as cryptographically signed metadata standard C2PA, which present the benefit of being open and interoperable and could enable labeling of AI-generated content across main distribution channels like Instagram or Facebook.
추적 가능성: AI가 생성한 콘텐츠가 개별 사용자까지 추적될 수 있도록 보장합니다. ElevenLabs에서는 플랫폼에서 생성된 콘텐츠를 해당 계정과 연결할 수 있으며, 음성 복제 도구는 은행 정보를 인증한 사용자만 이용할 수 있습니다. 추적 가능성에 집중하면 AI 플랫폼을 사용하는 누구나 자신의 행동에 책임을 질 수 있고, 필요시 법적 기관에 의해 신원이 확인될 수 있습니다.
Moderation: which involves defining clear policies on acceptable content and use, and preventing users from generating content that does not comply with such policies. At ElevenLabs, we use automated systems to scan, flag, and block inappropriate content. Human moderators review flagged content to ensure consistent policy enforcement. We are continually advancing our moderation technology to prevent the generation of content that could harm public trust or safety. Open source moderation endpoints, such as the one provided by OpenAI, enable easy integration of prompt moderation into any AI applications.
Working together towards a common goal
While we prioritize safe AI development, no company can tackle AI misuse alone. At the panel, we recognized the need for widespread collaboration among tech companies, governments, civil rights groups, and the public to confront social and environmental changes and ensure a secure digital future. At ElevenLabs, we’re dedicated to maintaining open dialogue in our community and supporting initiatives like the Content Authenticity Initiative and the Elections Safety Accord to combat misinformation.
AI 안전의 미래 대비
패널 토론에서 모두가 AI 제품은 안전하게 개발되고 사용되어야 한다는 데 동의했습니다. 동시에 창의적이고 예상치 못한 활용도 허용해야 합니다. ElevenLabs에서는 오디오 전사가 필요한 분들의 디지털 콘텐츠 접근성을 높이거나, ALS 등 건강 문제로 목소리를 잃은 분들에게 다시 목소리를 찾아주는 등 다양한 사례를 자주 목격합니다. AI 활용이 더욱 발전하려면 AI 미디어에 대한 인식을 높이고, 디지털 콘텐츠를 비판적으로 바라보는 습관을 장려하며, 진위 확인 도구를 널리 알리고, 대중과 기관 모두에게 윤리적인 AI 사용법을 교육하는 것이 필수적입니다.