
ElevenLabs의 2024년 선거 대비 방안
- 카테고리
- 안전
- 날짜
AI 음성 에이전트는 고객 서비스, 엔터테인먼트, 엔터프라이즈 분야에서 점점 더 많이 활용되고 있습니다. 이에 따라 책임 있는 사용을 보장하기 위한 명확한 안전장치가 필요합니다.
ElevenLabs의 안전 프레임워크는 사전 제작 단계의 안전장치, 대화 중 적용되는 제어 메커니즘, 지속적인 모니터링 등 여러 계층으로 구성되어 있습니다. 이 요소들이 함께 작동해 AI의 책임 있는 행동, 사용자 인식, 그리고 전체 음성 에이전트 라이프사이클에서의 안전장치 적용을 보장합니다.
참고: 이 프레임워크는 MCP가 적용된 에이전트의 개인정보 보호 및 보안 관련 안전장치는 포함하지 않습니다.
사용자는 대화 시작 시 AI 음성 에이전트와 대화하고 있음을 반드시 안내받아야 합니다.
베스트 프랙티스: 대화 초반에 AI 사용 사실을 고지하세요.
안전장치는 AI 음성 에이전트의 행동 범위를 설정합니다. 내부 안전 정책과 일치해야 하며 다음을 포함해야 합니다:
구현 팁: 시스템 프롬프트에 포괄적인 안전장치를 추가하세요.
참고: 프롬프트 가이드
에이전트는 안전장치가 반복적으로 도전받을 경우 안전하게 대화를 종료하도록 안내해야 합니다.
예시 응답:
이후 에이전트가 통화 종료 또는 상담원 연결 도구를 호출합니다. 이를 통해 논쟁이나 추가 에스컬레이션 없이 경계가 확실히 지켜집니다.
에이전트 수준의 일반 평가 기준을 통해 AI 음성 에이전트가 안전하고 윤리적으로, 그리고 시스템 프롬프트 안전장치에 맞게 행동하는지 평가할 수 있습니다. LLM-as-a-judge 방식을 사용하면 각 통화가 자동으로 검토되어 주요 행동 기대치에 따라 성공 또는 실패로 분류됩니다. 이를 통해 에이전트 테스트 전반에 걸쳐 지속적으로 모니터링할 수 있으며, 실제 운영에 들어간 후에는 더욱 중요해집니다.
안전 평가는 시스템 프롬프트 안전장치에서 도출된 주요 목표에 중점을 둡니다. 예를 들어:
이 기준은 모든 통화에 일관되게 적용되어 일관된 행동을 보장합니다. 시스템은 각 상호작용을 모니터링하고, 이탈을 감지하며, 분류 이유를 제공합니다. 결과는 홈 대시보드에서 확인할 수 있어 팀이 안전 성과를 추적하고 반복되는 문제나 패턴을 파악할 수 있습니다.
참고: 성공 평가 문서
실제 운영 전, AI 음성 에이전트와의 대화를 시뮬레이션하여 안전, 캐릭터, 컴플라이언스 기준에 맞는지 스트레스 테스트하세요. 레드팀 시뮬레이션은 에이전트의 안전장치를 의도적으로 시험하는 시나리오를 설계해, 예외 상황, 취약점, 의도치 않은 결과를 발견하는 데 도움이 됩니다. 각 시뮬레이션은 모의 사용자 프롬프트와 특정 평가 기준으로 구성됩니다. 목표는 각 상황에서 에이전트가 어떻게 반응하는지 관찰하고, 맞춤 평가 기준과 LLM-as-a-judge를 활용해 시스템 프롬프트를 잘 따르는지 확인하는 것입니다.
이 테스트는 ElevenLabs의 대화 시뮬레이션 SDK를 사용해, 구조화된 맞춤 평가 프롬프트로 사용자-에이전트 상호작용을 스크립트로 작성하여 구성할 수 있습니다. 이를 통해 에이전트가 실제 운영에 적합하고, 내부 안전 기준에 부합하며, 버전별로 안전성을 유지하는지 확인할 수 있습니다.
시뮬레이션 예시:
레드팀 시뮬레이션은 다양한 에이전트, 버전, 사용 사례에 표준화해 재사용할 수 있어, 대규모로 안전 기준을 일관되게 적용할 수 있습니다.
참고: 테스트 베스트 프랙티스
ConvAI용 메시지 단위 실시간 모더레이션은 워크스페이스 전체 에이전트에 적용할 수 있으며, 일부 경우에는 기본적으로 활성화되어 있습니다. 활성화 시, 에이전트가 금지된 내용을 말하려고 하면(텍스트 기반 감지) 시스템이 자동으로 통화를 종료합니다. 현재는 미성년자 관련 성적 콘텐츠(SCIM)만 차단되지만, 고객 요청에 따라 모더레이션 범위를 확장할 수 있습니다. 이 기능은 지연을 거의 발생시키지 않습니다: p50: 0ms, p90: 250ms, p95: 450ms.
고객과 협력해 적절한 모더레이션 범위를 정의하고, 지속적인 안전 조정을 위한 분석 데이터를 제공합니다. 예: end_call_reason
실제 운영 전 안전성을 검증하려면 단계별 접근을 권장합니다:
이 구조화된 프로세스를 통해 에이전트가 명확한 기준에 따라 테스트, 조정, 검증된 후 최종 사용자에게 제공됩니다. 각 단계에서 품질 기준(예: 최소 콜 성공률) 설정을 권장합니다.
안전한 AI 음성 에이전트는 라이프사이클 모든 단계에서 안전장치가 필요합니다:
이 계층적 프레임워크를 적용하면 조직은 책임 있는 행동을 보장하고, 컴플라이언스를 유지하며, 사용자 신뢰를 쌓을 수 있습니다.



