
ElevenLabs와 Reality Defender, AI 안전 이니셔티브 협력
- 카테고리
- 안전
- 날짜
2024년 한 해 동안 전 세계 곳곳에서 다양한 선거가 치러질 예정입니다. 이에 맞춰 ElevenLabs는 AI 음성.
기술은 언어 장벽을 허물고 전 세계의 이해를 넓히겠다는 ElevenLabs의 약속에서 시작되었습니다. 교육, 엔터테인먼트, 접근성 등 다양한 분야에서 영감을 주는 사례가 계속 나오고 있으며, 콘텐츠를 더욱 흥미롭고 모두가 함께할 수 있도록 만듭니다.
하지만 AI 기술 환경이 변화함에 따라 정치 과정에 미치는 영향도 인식하고 있습니다. 시스템의 안전한 개발, 배포, 사용이 최우선이며, 기술 발전에 따라 오용 및 허위 정보 확산을 막기 위한 추가 조치도 시행하고 있습니다.
모든 사용자가 긍정적인 경험을 할 수 있도록, ElevenLabs는 AI 음성이 허위 정보를 퍼뜨리는 데 사용되지 않도록 구체적인 조치를 취하고 있습니다. 이미 플랫폼 이용 약관에서 타인을 사칭하거나 해를 끼치는 행위를 금지하고 있지만, 추가적으로 ‘금지 음성’ 보호 장치를 도입했습니다. 이 보호 장치는 대통령 또는 총리 선거에 출마한 정치인을 모방하는 음성 생성을 감지하고 차단하는 기능으로, 미국과 영국을 시작으로 적용됩니다. 앞으로 다른 언어와 선거 주기로 확대할 예정입니다. 또한 실제 테스트와 피드백을 통해 이 조치를 지속적으로 개선할 계획입니다. 다른 AI 기업 및 파트너들과도 협력하여 이러한 보호 장치를 효과적으로 강화하고 확장하는 방안을 함께 모색하고자 합니다.
민주적 절차에 영향을 미치거나 유권자를 혼란스럽게 할 수 있는 정치 콘텐츠 생성도 적극적으로 차단하는 새로운 방법을 테스트하고 있습니다. ElevenLabs 플랫폼에서 생성된 콘텐츠는 항상 원본 계정까지 추적할 수 있습니다. 오남용 사례를 더 효과적으로 식별하고 대응하기 위해 새로운 모더레이션 및 내부 검토 시스템도 개발 중입니다. 선거 절차, 유권자 자격, 투표의 가치를 왜곡하는 것은 민주주의를 훼손하는 일이며, AI를 이용해 혼란이나 불신을 조장하는 행위에 단호히 반대합니다. 타인을 사칭하거나 챗봇, 로보콜 등 정치 캠페인 활동에 ElevenLabs 기술을 사용하는 것은 이용 약관 위반입니다.
AI로 생성된 콘텐츠를 명확하게 식별할 수 있도록 하는 것이 책임 있는 개발의 핵심입니다.
지난 6월, ElevenLabs는 AI 음성 판별기를 출시했습니다. 누구나 오디오 샘플을 업로드해 해당 샘플이 ElevenLabs의 AI 오디오인지 분석할 수 있습니다. 오디오 콘텐츠의 출처를 쉽게 확인할 수 있도록 하여 허위 정보 확산을 막는 것이 목표입니다. 파트너십이나 연동에 관심이 있다면 legal@elevenlabs.io로 연락해 주세요. 플랫폼에서 우려되는 점을 발견했거나, ElevenLabs에서 생성된 것으로 의심되는 콘텐츠가 있다면 여기.
커뮤니티가 ElevenLabs 기술을 통해 발견하는 긍정적인 활용 사례에 늘 영감을 받고 있습니다. 2024년과 그 이후에도 커뮤니티, 파트너, 시민사회, 주요 이해관계자와 지속적으로 소통하며 책임 있는 혁신을 이어가겠습니다.



