본문 바로가기

선거 대비 준비 상황 업데이트

2024년, 전 세계적으로 중요한 선거가 열리는 해를 맞아 ElevenLabs는 도구 오용 방지를 위한 구체적인 조치를 시행했습니다.

ElevenLabs는 모든 언어, 목소리, 소리로 콘텐츠를 쉽고 재미있게 전달할 수 있도록 노력하고 있습니다. 저희 기술이 더 연결되고 정보에 밝은 세상을 만들 수 있다고 믿으며, 이는 민주주의 발전에도 긍정적인 힘이 될 수 있다고 생각합니다. 저희는 정치인들이 자신의 목소리를 되찾아 유권자와 소중한 가치를 위해 계속 싸울 수 있도록 지원했습니다. 활동가들 역시 변화와 삶의 질 향상을 위해 노력할 수 있도록 도왔습니다. 지식, 참여, 커뮤니티의 장벽을 허무는 일은 이제 시작입니다.

또한 산업계, 정부, 시민사회, 개인 모두가 민주주의를 촉진하는 것뿐만 아니라 보호하는 데도 책임이 있다고 믿습니다.2024년 내내 전 세계 여러 나라에서 중요한 선거가 열리는 해를 맞아, 저희는 도구 오용을 방지하기 위한 구체적인 조치를 시행했습니다. 11월 5일 미국 대선을 앞두고, 그간의 노력을 안내드립니다.

정책

저희는 금지 사용 정책을 개정해 선거와 관련된 도구 사용 규정을 더욱 강화하고 명확히 했습니다.

  • 선거운동 및 후보자 사칭 금지저희 도구를 특정 후보, 이슈, 입장 홍보 또는 지지, 투표나 후원 요청 등 정치적 선거운동에 사용하는 것을 엄격히 금지합니다. 또한 정치 후보자 및 선출직 공무원의 목소리를 모방하는 것도 금지합니다.
  • 유권자 억압 및 선거 과정 방해 금지저희 도구를 이용해 유권자 억압이나 선거·시민 참여 과정 방해를 선동, 참여, 조장하는 행위를 금지합니다. 여기에는 허위 정보 생성, 유포, 확산도 포함됩니다.

예방

선거와 관련된 도구 오용을 막기 위해 안전장치를 한층 강화했습니다.

  • 사용자 심사음성 복제 도구를 사용하는 모든 사용자는 연락처와 결제 정보를 제공해야 하며, 이를 통해 가입 시 사기 행위나 위험 지역과 연관된 계정을 차단할 수 있습니다.
  • “No-Go” 보이스No-Go 보이스 기술을 통해 수백 명의 후보자, 선출직 공무원, 정치인, 유명인의 목소리 생성을 차단합니다. 이 안전장치는 지속적으로 확대되고 있으며, 차단된 목소리 생성을 시도하는 사용자에 대해 모니터링 및 제재 조치를 취하고 있습니다.

탐지 및 집행

예방 조치와 더불어 탐지 및 집행 역량도 강화했습니다.

  • 오용 모니터링 개선된 자체 분류기(정치 콘텐츠 식별 전용 포함), 자동 모더레이션, 인력 검토를 통해 약관 위반 콘텐츠를 탐지합니다. 또한 선거 방해 목적의 오용 가능성을 파악하는 외부 위협 인텔리전스 팀과 협력하고, 정부 및 업계 파트너와 정보 공유 채널도 구축했습니다.
  • 강력한 집행 오용이 확인되면 목소리 삭제, 사용자 임시 제한, 플랫폼 영구 차단, 필요 시 당국 신고 등 단호하게 조치합니다. ElevenLabs에서 생성된 것으로 의심되는 문제 콘텐츠를 발견하셨다면 저희에게 알려주세요.
  • 정부 노력 지원정부의 적극적인 대응이 오용 방지에 매우 중요하다고 생각합니다. 7월에는 공식 발표를 통해 기만적 AI로부터 선거 보호법을 지지한다고 밝혔습니다. 이 법안은 Amy Klobuchar, Josh Hawley, Chris Coons, Susan Collins, Maria Cantwell, Todd Young, John Hickenlooper, Marsha Blackburn 상원의원이 주도한 초당적 입법으로, AI를 이용해 유권자를 속이는 선거 광고를 만든 이들에게 책임을 묻는 내용입니다. 앞으로도 미국 및 전 세계 정책 입안자들과 선거 관련 AI 안전 이니셔티브를 포함한 다양한 협력을 이어가겠습니다.

출처 및 투명성

AI 생성 콘텐츠의 명확한 식별을 가능하게 하는 것은 폭넓은 협업과 함께 ElevenLabs의 책임 있는 개발의 핵심입니다.

  • AI 음성 분류기저희 AI 음성 분류기2023년 6월부터 공개되어 누구나 오디오 샘플이 ElevenLabs에서 생성된 것인지 분석할 수 있습니다. 이 도구를 공개함으로써 오디오 출처를 쉽게 확인할 수 있어 허위 정보 확산을 줄이고자 합니다.
  • 업계 협력AI 콘텐츠 출처 및 투명성 확보는 ElevenLabs만의 힘으로는 어렵기에, 업계 전체의 노력이 필요합니다. 이런 이유로 저희는 콘텐츠 진위 이니셔티브(CAI)에 참여하고 있습니다. 이 이니셔티브는 주요 미디어 및 기술 기업이 출처 표준을 개발하기 위해 힘을 모으는 프로젝트입니다. 콘텐츠 출처 및 진위 연합(C2PA)를 통해 저희는 오디오에 암호화된 메타데이터를 삽입해 이러한 표준을 구현하고 있습니다. 이를 통해 CAI 도구를 도입한 주요 소셜 미디어 플랫폼 등 유통 채널에서 저희 오디오가 AI 생성임을 인식할 수 있습니다.
  • 서드파티 탐지 도구 지원 저희는 서드파티 AI 안전 기업과 협력해 선거 관련 딥페이크 등 AI 생성 콘텐츠 탐지 도구의 성능을 높이고 있습니다. 7월에는 파트너십을 맺고 리얼리티 디펜더와 협력했습니다. Reality Defender는 딥페이크 탐지에 특화된 사이버보안 기업으로, 저희 모델과 데이터를 제공해 탐지 도구를 강화했습니다. 이 파트너십을 통해 정부 및 대기업 등 Reality Defender 고객이 실시간으로 AI 생성 위협을 탐지할 수 있어, 전 세계 사람들을 허위 정보와 정교한 사기로부터 보호할 수 있습니다. 또한 UC 버클리 정보대학 연구 등 다양한 학술 및 상업 프로젝트에도 참여해 AI 콘텐츠 탐지 기술 발전에 기여하고 있습니다.

앞으로도 계속 배우고 안전장치를 개선해 나가겠습니다. 저희 도구가 사용될 모든 방식을 예측할 수는 없지만, 오용 방지를 위한 강력한 조치를 이어가며, 더 연결되고 정보에 밝은 세상을 만들기 위해 기술을 활용하겠습니다.

ElevenLabs 팀의 다른 글 보기

최고 품질의 AI 오디오로 창작하세요