
Humanizing AI through voice at UCLA Communication's 50th Anniversary
Demonstrating how AI is reshaping communication and connection.
Nuestros agentes con IA ahora pueden procesar palabras habladas y texto al mismo tiempo, lo que permite interacciones más naturales, eficientes y fluidas.
Hoy en ElevenLabs anunciamos una mejora importante en nuestra plataforma de Conversational AI: la llegada de la verdadera multimodalidad entre texto y voz. Nuestros agentes con IA ahora entienden y procesan tanto el lenguaje hablado como el texto escrito de forma simultánea. Esta capacidad está pensada para crear interacciones más naturales, flexibles y efectivas en todo tipo de casos de uso.
Aunque la voz es una forma de comunicación potente e intuitiva, los agentes de IA solo por voz pueden encontrar dificultades en ciertas situaciones. Hemos detectado problemas habituales en entornos empresariales, como:
Al permitir que los agentes procesen texto y voz, damos a los usuarios la libertad de elegir el método de entrada que mejor se adapte a la información que quieren compartir. Este enfoque híbrido permite conversaciones más fluidas y robustas. Puedes hablar de forma natural y, cuando necesites precisión o te resulte más cómodo, cambiar al texto en la misma interacción.
La llegada de la multimodalidad entre texto y voz aporta varias ventajas clave:
Nuestra IA Conversacional multimodal incluye estas funcionalidades:
Esta nueva funcionalidad multimodal está disponible de forma nativa en toda nuestra plataforma:
Las interacciones multimodales aprovechan todas las innovaciones de nuestra plataforma de Conversational AI:
Para usar la multimodalidad de texto y voz con tus agentes de Conversational AI:
Creemos que la multimodalidad texto+voz mejorará mucho las capacidades y la experiencia de usuario de Conversational AI. Nos encantará ver cómo aprovechas esta nueva función.

Demonstrating how AI is reshaping communication and connection.

ElevenLabs is an official partner of Audi Revolut F1 Team