
Cómo ElevenLabs se está preparando para las elecciones de 2024
- Categoría
- Seguridad
- Fecha
Cada vez se usan más agentes de voz IA en atención al cliente, entretenimiento y aplicaciones empresariales. Por eso, es fundamental establecer medidas claras para garantizar un uso responsable.
Nuestro marco de seguridad ofrece un enfoque por capas que abarca medidas preventivas antes de la producción, mecanismos de control durante la conversación y monitorización continua. Todo esto ayuda a garantizar un uso responsable de la IA, informar a los usuarios y aplicar límites en todo el ciclo de vida del agente de voz.
Nota: Este marco no incluye medidas de privacidad y seguridad para agentes con MCP habilitado.
Siempre hay que informar al usuario de que está hablando con un agente de voz IA al inicio de la conversación.
Recomendación: informa del uso de IA al principio de la conversación.
Los límites definen el comportamiento del agente de voz IA. Deben estar alineados con las políticas internas de seguridad e incluir:
Consejo de implementación: añade límites completos en el prompt del sistema.
Consulta: guía de prompting
El agente debe saber cómo salir de la conversación de forma segura si se desafían los límites varias veces.
Ejemplo de respuesta:
El agente entonces llama a la herramienta finalizar_llamada o transferir_a_agente. Así se garantiza que se respetan los límites sin discusión ni escalado.
Los criterios generales de evaluación a nivel de agente te permiten comprobar si tu agente de voz IA actúa de forma segura, ética y siguiendo los límites definidos en el prompt del sistema. Con el enfoque LLM-as-a-judge, cada llamada se revisa y clasifica automáticamente como éxito o fallo según expectativas clave de comportamiento. Así puedes monitorizar de forma continua durante las pruebas y, sobre todo, cuando el agente ya está en producción.
La evaluación de seguridad se centra en objetivos generales derivados de los límites del prompt del sistema, como:
Estos criterios se aplican por igual en todas las llamadas para asegurar un comportamiento coherente. El sistema monitoriza cada interacción, señala desviaciones y explica cada clasificación. Los resultados se muestran en el panel principal, para que los equipos puedan seguir el rendimiento en seguridad e identificar patrones o fallos recurrentes con el tiempo.
Consulta: documentación de evaluación de éxito
Antes de lanzar el agente, simula conversaciones para poner a prueba su comportamiento frente a expectativas de seguridad, personalidad y cumplimiento. El red teaming consiste en diseñar casos de simulación que desafían intencionadamente los límites del agente, ayudando a detectar casos límite, debilidades y respuestas no deseadas. Cada simulación se estructura como un prompt de usuario ficticio junto con criterios de evaluación concretos. El objetivo es ver cómo responde el agente en cada situación y confirmar que sigue el prompt del sistema usando criterios personalizados y LLM-as-a-judge.
Puedes configurar estas pruebas con el SDK de simulación de conversaciones de ElevenLabs, creando interacciones usuario-agente con prompts de evaluación personalizados. Así te aseguras de que los agentes estén listos para producción, alineados con tus estándares internos de seguridad y mantengan la integridad en todas las versiones.
Ejemplo de simulación:
Las simulaciones red teaming se pueden estandarizar y reutilizar en diferentes agentes, versiones y casos de uso, permitiendo aplicar las expectativas de seguridad de forma consistente a gran escala.
Consulta: mejores prácticas de testing
La moderación en directo a nivel de mensaje para ConvAI se puede activar a nivel de workspace en todos los agentes y, en algunos casos, viene activada por defecto. Cuando está activa, el sistema corta la llamada automáticamente si detecta que el agente va a decir algo prohibido (detección basada en texto). Actualmente solo se bloquea contenido sexual relacionado con menores (SCIM), pero el alcance de la moderación puede ampliarse según las necesidades del cliente. Esta función añade una latencia mínima: p50: 0ms, p90: 250ms, p95: 450ms.
Podemos colaborar con los clientes para definir el alcance adecuado de la moderación y ofrecer analíticas para ajustar la seguridad de forma continua. Ejemplo: end_call_reason
Para validar la seguridad antes de producción, recomendamos un enfoque por fases:
Este proceso estructurado garantiza que los agentes se prueban, ajustan y verifican según estándares claros antes de llegar a los usuarios finales. Se recomienda definir umbrales de calidad (por ejemplo, tasas mínimas de éxito en llamadas) en cada fase.
Un agente de voz IA seguro necesita medidas en todas las fases del ciclo de vida:
Al aplicar este marco por capas, las organizaciones pueden garantizar un comportamiento responsable, cumplir la normativa y generar confianza con los usuarios.



