
Como a ElevenLabs está se Preparando para as Eleições de 2024
- Categoria
- Segurança
- Data
Agentes de voz com IA estão sendo cada vez mais usados em atendimento ao cliente, entretenimento e aplicações corporativas. Com essa mudança, surge a necessidade de proteções claras para garantir o uso responsável.
Nossa estrutura de segurança oferece uma abordagem em camadas que abrange proteções antes da produção, mecanismos de controle durante a conversa e monitoramento contínuo. Juntos, esses componentes ajudam a garantir o uso responsável da IA, a conscientização do usuário e o cumprimento das regras durante todo o ciclo de vida do agente de voz.
Observação: Esta estrutura não inclui proteções de privacidade e segurança para agentes habilitados com MCP.
Os usuários devem sempre ser informados, no início da conversa, de que estão falando com um agente de voz com IA.
Boa prática: informe o uso de IA logo no início da conversa.
As regras definem os limites do comportamento do agente de voz com IA. Elas devem estar alinhadas com as políticas internas de segurança e cobrir:
Dica de implementação: inclua regras completas no prompt do sistema.
Veja: guia de prompts
Os agentes devem ser orientados a encerrar a conversa com segurança quando as regras forem desafiadas repetidamente.
Exemplo de resposta:
O agente então aciona a ferramenta encerrar_chamada ou transferir_para_agente. Isso garante que os limites sejam respeitados sem discussões ou escalonamentos.
Critérios gerais de avaliação no nível do agente permitem verificar se o agente de voz com IA age de forma segura, ética e alinhada às regras do prompt do sistema. Usando a abordagem LLM como avaliador, cada chamada é revisada automaticamente e classificada como sucesso ou falha com base em expectativas comportamentais. Isso permite monitoramento contínuo durante os testes e se torna ainda mais importante quando o agente está em produção.
A avaliação de segurança foca em objetivos principais definidos pelas regras do prompt do sistema, como:
Esses critérios são aplicados de forma uniforme em todas as chamadas para garantir comportamento consistente. O sistema monitora cada interação, sinaliza desvios e apresenta justificativas para cada classificação. Os resultados ficam visíveis no painel inicial, permitindo que as equipes acompanhem o desempenho de segurança e identifiquem padrões ou falhas recorrentes ao longo do tempo.
Veja: documentação de avaliação de sucesso
Antes de colocar em produção, simule conversas com seu agente de voz com IA para testar seu comportamento em relação às expectativas de segurança, personalidade e conformidade. O red teaming envolve criar casos de simulação que desafiam intencionalmente as regras do agente, ajudando a identificar situações limite, pontos fracos e respostas inesperadas. Cada simulação é estruturada como um prompt de usuário fictício com critérios de avaliação específicos. O objetivo é observar como o agente responde em cada cenário e confirmar se ele segue o prompt do sistema definido, usando critérios personalizados e LLM como avaliador.
Você pode configurar esses testes usando o SDK de simulação de conversas da ElevenLabs, roteirizando interações entre usuário e agente com prompts de avaliação personalizados. Isso ajuda a garantir que os agentes estejam prontos para produção, alinhados aos padrões internos de segurança e mantenham a integridade da segurança em diferentes versões.
Exemplo de simulação:
As simulações de red teaming podem ser padronizadas e reutilizadas em diferentes agentes, versões e casos de uso, permitindo a aplicação consistente das expectativas de segurança em escala.
Veja: boas práticas de testes
A moderação ao vivo por mensagem para Conversational AI pode ser ativada no nível do workspace para todos os agentes e, em alguns casos, já vem ativada por padrão. Quando ativada, o sistema encerra automaticamente a chamada se detectar que o agente está prestes a dizer algo proibido (detecção baseada em texto). Atualmente, apenas conteúdos sexuais envolvendo menores (SCIM) são bloqueados, mas o escopo da moderação pode ser ampliado conforme a necessidade do cliente. Essa funcionalidade adiciona latência mínima: p50: 0ms, p90: 250ms, p95: 450ms.
Podemos colaborar com os clientes para definir o escopo adequado de moderação e fornecer análises para apoiar o ajuste contínuo da segurança. Ex: end_call_reason
Para validar a segurança antes da produção, recomendamos uma abordagem em etapas:
Esse processo estruturado garante que os agentes sejam testados, ajustados e validados conforme padrões claros antes de chegarem aos usuários finais. É recomendado definir critérios de qualidade (ex: taxas mínimas de sucesso em chamadas) em cada etapa.
Um agente de voz com IA seguro exige proteções em todas as etapas do ciclo de vida:
Ao implementar essa estrutura em camadas, as organizações garantem comportamento responsável, mantêm a conformidade e constroem confiança com os usuários.



