
Omnivore, la aplicación líder para leer más tarde, se une a ElevenLabs
- Categoría
- Producto
- Fecha
Hemos implementado el servicio multi-región para nuestra API de Texto a Voz. Ahora las solicitudes se enrutan automáticamente al backend más cercano (EE. UU., Países Bajos o Singapur), ofreciendo un menor tiempo hasta el primer byte (TTFB) sin que tengas que cambiar nada en tu código.
Cuando llamas a api.elevenlabs.io, nuestra infraestructura elige el backend óptimo según tu ubicación:
Puedes comprobar tu región de servicio en la cabecera x-region de la respuesta de la API.
Con GPUs mejoradas y una pila de inferencia optimizada, Flash v2.5 consigue 50ms de tiempo hasta el primer byte del modelo, y junto con las mejoras en el enrutamiento de red, esto reduce notablemente la latencia percibida.
Mejoras medidas en TTFB en 11 ubicaciones globales:
Para la mayoría de desarrolladores internacionales, esto supone una reducción del 20-40% en la latencia percibida.
Para agentes de voz y aplicaciones en tiempo real, reducir la latencia en 150ms permite conversaciones más naturales, mejor respuesta y una experiencia consistente para usuarios en cualquier parte del mundo. Combinado con la velocidad de inferencia de Flash v2.5, es la solución de Texto a Voz más rápida para agentes.
No necesitas migrar nada. Si usas api.elevenlabs.io, el enrutamiento global ya está activo.
Si prefieres no usar el enrutamiento global y quieres usar siempre los servidores de EE. UU., utiliza la URL base api.us.elevenlabs.io para tus solicitudes a la API.
Consulta nuestra guía de optimización de latencia para ver más buenas prácticas. Si eres cliente enterprise y necesitas residencia regional de datos, puedes contactar con ventas.



.webp&w=3840&q=80)
