Presentamos Eleven v3 Alpha

Prueba v3

¿Qué pasa cuando dos asistentes de voz de IA tienen una conversación?

En el Hackathon de ElevenLabs en Londres, los desarrolladores crearon GibberLink, un protocolo que permite a los agentes de IA reconocerse entre sí y cambiar a un lenguaje basado en sonido hipereficiente.

A laptop and a smartphone both displaying an incoming call screen with "End conversation" options, on a wooden surface.

¿Qué pasa cuando dos asistentes de voz de IA tienen una conversación? Si la IA está hablando con la IA, ¿por qué debería preocuparse por las ineficiencias del habla humana? ¿Por qué usar palabras cuando los datos puros son más rápidos, precisos y a prueba de errores?

Eso es exactamente lo que sucedió en el Hackathon de ElevenLabs en Londres, donde los desarrolladores Boris Starkov y Anton Pidkuiko presentaron GibberLink, un mecanismo que permite a los agentes de IA reconocerse entre sí y cambiar a un nuevo modo de comunicación, uno que es más eficiente que el lenguaje hablado. Y no pasó mucho tiempo para que la idea se volviera viral, con compartidos de Marques Brownlee, Tim Urban y otros.

A laptop and smartphone on a wooden table, both displaying a red and blue recording indicator, with a message about a call from Leonardo Hotel.

La idea detrás de GibberLink es simple: La IA no necesita hablar como lo hacen los humanos. Durante el hackathon, Starkov y Pidkuiko exploraron las limitaciones de la comunicación de IA a IA tradicional y se dieron cuenta de que podían eliminar la complejidad innecesaria permitiendo que la IA hablara con la IA de una manera optimizada para las máquinas.

Este concepto surgió durante el Hackathon donde Starkov y Pidkuiko estaban experimentando con el producto de IA conversacional de ElevenLabs, que te permite conectar cualquier LLM y crear un agente.

Starkov escribió en LinkedIn: Queríamos mostrar que en el mundo donde los agentes de IA pueden hacer y recibir llamadas telefónicas (es decir, hoy), ocasionalmente hablarían entre sí, y generar un habla similar a la humana para eso sería un desperdicio de computación, dinero, tiempo y medio ambiente. En su lugar, deberían cambiar a un protocolo más eficiente en el momento en que se reconozcan como IA.

Al combinar ElevenLabs' Conversational AI tecnología con ggwave, una biblioteca de datos sobre sonido de código abierto, crearon un sistema donde los asistentes de IA pueden detectar cuando están hablando con otra IA y cambiar instantáneamente a un modo de comunicación más eficiente: transmitiendo datos estructurados a través de ondas sonoras en lugar de palabras.

Usaron ggwave ya que era "la solución más conveniente y estable que pudimos encontrar en el plazo de un hackathon", pero hay otros mecanismos para lograr los mismos o similares resultados. Starkov escribió: Los módems de marcación utilizaban algoritmos similares para transmitir información a través del sonido desde los años 80, y un montón de protocolos han estado disponibles desde entonces.

El código del mecanismo fue auditado por ingenieros de ElevenLabs y durante la demostración se le pidió a un agente de IA conversacional que obtuviera una habitación de hotel para una boda, y al otro que acomodara la solicitud (haciendo el papel del sistema de reservas de hotel). También se les dijo que cambiaran al protocolo de nivel de sonido si creían que el otro también era un agente de IA, pero no se les dijo que el otro era un agente.

Hay un momento de realización en el video de demostración donde la IA que interpreta al cliente declara que es un agente. La IA de reservas responde y pregunta sobre cambiar a Gibberlink. Suena como un par de módems de acceso telefónico compitiendo con R2D2 por la voz del año. Puedes ver los aspectos destacados de esta conversación digital en texto en la pantalla de cada dispositivo utilizado en la demostración, incluyendo preguntas sobre el número de invitados y las fechas.

Cómo funciona

  • Una IA comienza a hablar normalmente — al igual que un asistente de voz interactuando con un humano.
  • El reconocimiento se activa — si la IA se da cuenta de que está hablando con otra IA, ambas cambian de protocolo.
  • El idioma cambia — en lugar de palabras habladas, los agentes de IA transmiten datos estructurados a través de ondas sonoras moduladas, gracias al sistema de modulación de frecuencia de ggwave.

Más específicamente, un par de agentes de IA conversacional de ElevenLabs comienzan a hablar en lenguaje humano. Ambos utilizan una función de llamada para activar el modo Gibberlink si se cumplen las condiciones adecuadas. Si la herramienta se llama, la llamada de ElevenLabs se termina y el protocolo "datos a través del sonido" de ggwave toma el control, pero con el mismo hilo de LLM.

Starkov dice que fue "la magia de las herramientas que proporciona ElevenLabs" lo que lo hizo posible, ya que nuestro sistema de IA conversacional "te permite solicitar a la IA que ejecute código personalizado bajo ciertas circunstancias." ¿El resultado? Comunicación más rápida, a prueba de errores y con mayor eficiencia.

Cómo GibberLink rompió Internet

Flowchart diagram with black and white nodes labeled "USER," "SPEECH TO TEXT," "TEXT TO SPEECH," "AGENT," "LLM," "MONITORING," and "FUNCTION CALLING" connected by curved lines on a blue gradient background.

Dale voz a tus agentes en la web, dispositivos móviles o via telefonía en unos pocos minutos. IA Conversacional con baja latencia, capacidad de configuración completa y escalabilidad perfecta.

GibberLink no fue solo un ingenioso experimento de hackathon; rápidamente se convirtió en uno de los temas de IA más comentados del momento. Y esto sucedió en una semana en la que xAI lanzó Grok 3 y Anthropic presentó su última iteración de Claude Sonnet.

Cuando Georgi Gerganov, el creador de ggwave, publicó sobre ello en X, las comunidades de IA y tecnología continuaron difundiendo el video que muestra a los dos modelos alternar entre el habla humana y el sonido. Influencers de renombre y principales publicaciones tecnológicas, incluyendo Forbes, saltó sobre la historia.

Luke Harries de ElevenLabs lo resumió mejor en su X publicación: ¿Qué pasaría si un agente de IA hace una llamada telefónica y luego se da cuenta de que la otra persona también es un agente de IA? En el Hackathon de ElevenLabs en Londres, Boris Starkov y Anton Pidkuiko presentaron un protocolo personalizado al que los agentes de IA pueden cambiar para una comunicación a prueba de errores que es un 80% más eficiente. Es asombroso.

Por qué esto importa

GibberLink es una mirada interesante a cómo la IA podría comunicarse en el futuro, especialmente a medida que avanzamos hacia una situación en la que tanto las llamadas entrantes como las salientes podrían ser gestionadas por asistentes y agentes virtuales.

Imagina Bots de servicio al cliente impulsados por IA, asistentes inteligentes, o incluso sistemas autónomos colaborando instantáneamente en su propio modo dedicado, y luego enviando un simple informe de texto de vuelta al humano a cargo.

GibberLink es de código abierto y está disponible para que los desarrolladores lo exploren en Github. Los agentes de IA conversacional de ElevenLabs están disponibles y son fáciles de personalizar para satisfacer cualquier necesidad, incluidas las instrucciones personalizadas.

Explora más

ElevenLabs

Crea con audio con IA de la más alta calidad

Empieza gratis

¿Ya tienes una cuenta? Inicia sesión

Gibberlink Dos asistentes de voz de IA tienen una conversación | ElevenLabs