Apresentando o Eleven v3 (alpha)

Experimente o v3

O que acontece quando dois assistentes de voz IA conversam?

No Hackathon da ElevenLabs em Londres, desenvolvedores criaram o GibberLink, um protocolo que permite que agentes de IA se reconheçam e mudem para uma linguagem baseada em som super eficiente

A laptop and a smartphone both displaying an incoming call screen with "End conversation" options, on a wooden surface.

O que acontece quando dois assistentes de voz IA conversam? Se a IA está falando com outra IA, por que se preocupar com as ineficiências da fala humana? Por que usar palavras quando dados puros são mais rápidos, precisos e sem erros?

Foi exatamente isso que aconteceu no Hackathon da ElevenLabs em Londres, onde os desenvolvedores Boris Starkov e Anton Pidkuiko apresentaram GibberLink, um mecanismo que permite que agentes de IA se reconheçam e mudem para um novo modo de comunicação — mais eficiente que a linguagem falada. E não demorou para a ideia se tornar viral, com compartilhamentos de Marques Brownlee, Tim Urban e outros.

A laptop and smartphone on a wooden table, both displaying a red and blue recording indicator, with a message about a call from Leonardo Hotel.

A ideia por trás do GibberLink é simples: a IA não precisa falar como os humanos. Durante o hackathon, Starkov e Pidkuiko exploraram as limitações da fala tradicional de IA para IA e perceberam que poderiam eliminar complexidades desnecessárias permitindo que a IA conversasse de uma forma otimizada para máquinas.

Esse conceito surgiu durante o Hackathon, onde Starkov e Pidkuiko estavam experimentando o produto de Conversational AI da ElevenLabs, que permite conectar qualquer LLM e criar um agente.

Starkov escreveu no LinkedIn: "Queríamos mostrar que no mundo onde agentes de IA podem fazer e receber chamadas (ou seja, hoje), eles ocasionalmente conversariam entre si — e gerar fala semelhante à humana para isso seria um desperdício de computação, dinheiro, tempo e meio ambiente. Em vez disso, eles deveriam mudar para um protocolo mais eficiente assim que se reconhecessem como IA."

Combinando a tecnologia da ElevenLabs Conversational AI com ggwave, uma biblioteca open-source de dados sobre som, eles criaram um sistema onde assistentes de IA podem detectar quando estão falando com outra IA e mudar instantaneamente para um modo de comunicação mais eficiente — transmitindo dados estruturados por ondas sonoras em vez de palavras.

Eles usaram o ggwave por ser "a solução mais conveniente e estável que encontramos no tempo de um hackathon", mas existem outros mecanismos para alcançar os mesmos ou similares resultados. Starkov escreveu: "Modems discados usavam algoritmos semelhantes para transmitir informações via som desde os anos 80, e vários protocolos surgiram desde então."

O código do mecanismo foi auditado por engenheiros da ElevenLabs e durante a demonstração, um agente de Conversational AI foi instruído a reservar um quarto de hotel para um casamento, o outro a atender o pedido (fazendo o papel do sistema de reservas do hotel). Eles também foram instruídos a mudar para o protocolo de nível sonoro se acreditassem que o outro também era um agente de IA, mas não foram informados de que o outro era um agente.

Há um momento de realização no vídeo da demonstração onde a IA que faz o papel do cliente declara que é um agente. A IA de reservas responde e pergunta sobre mudar para o Gibberlink. Parece uma dupla de modems discados competindo com o R2D2 pelo título de voz do ano. Você pode ver destaques dessa conversa digital em texto na tela de cada dispositivo usado na demonstração, incluindo perguntas sobre número de convidados e datas.

Como Funciona

  • Uma IA começa falando normalmente — assim como um assistente de voz interagindo com um humano.
  • O reconhecimento entra em ação — se a IA percebe que está falando com outra IA, ambas mudam de protocolo.
  • A linguagem muda — em vez de palavras faladas, os agentes de IA transmitem dados estruturados por ondas sonoras moduladas, graças ao sistema de modulação de frequência do ggwave.

Mais especificamente, um par de agentes de Conversational AI da ElevenLabs começa a falar em linguagem humana. Ambos usam uma função de chamada para acionar o modo Gibberlink se as condições certas forem atendidas. Se a ferramenta for chamada, a chamada da ElevenLabs é encerrada e o protocolo "data over sound" do ggwave assume, mas com o mesmo thread LLM.

Starkov diz que foi "a magia das ferramentas que a ElevenLabs fornece" que tornou isso possível, já que nosso sistema de Conversational AI "permite que você instrua a IA a executar código personalizado em certas circunstâncias." O resultado? Comunicação mais rápida, sem erros e com maior eficiência.

Como o GibberLink Quebrou a Internet

Flowchart diagram with black and white nodes labeled "USER," "SPEECH TO TEXT," "TEXT TO SPEECH," "AGENT," "LLM," "MONITORING," and "FUNCTION CALLING" connected by curved lines on a blue gradient background.

Adicione voz aos seus agentes na web, mobile ou telefonia em minutos. Nossa API em tempo real oferece baixa latência, total configurabilidade e escalabilidade perfeita.

GibberLink não foi apenas um experimento inteligente de hackathon — rapidamente se tornou um dos tópicos de IA mais comentados do momento. E isso aconteceu em uma semana em que a xAI lançou o Grok 3 e a Anthropic apresentou sua última versão do Claude Sonnet.

Quando Georgi Gerganov, o criador do ggwave, postou sobre isso no X, as comunidades de IA e tecnologia continuaram a espalhar o vídeo mostrando os dois modelos alternando entre fala humana e som. Influenciadores de renome e grandes publicações de tecnologia, incluindo a Forbes, entraram na história.

Luke Harries da ElevenLabs resumiu bem em seu post no X: "E se um agente de IA faz uma chamada telefônica e percebe que a outra pessoa também é um agente de IA? No Hackathon da ElevenLabs em Londres, Boris Starkov e Anton Pidkuiko introduziram um protocolo personalizado que agentes de IA podem adotar para uma comunicação sem erros e 80% mais eficiente. É de cair o queixo."

Por Que Isso Importa

GibberLink é uma visão interessante de como a IA pode se comunicar no futuro, especialmente à medida que avançamos para uma situação onde tanto as chamadas de entrada quanto as de saída podem ser gerenciadas por assistentes e agentes virtuais.

Imagine bots de atendimento ao cliente com IA, assistentes inteligentes ou até sistemas autônomos colaborando instantaneamente em seu próprio modo dedicado, e depois apenas enviando um simples relatório de texto de volta para o humano responsável.

GibberLink é open-source e está disponível para desenvolvedores explorarem no GitHub. Os agentes de Conversational AI da ElevenLabs estão disponíveis e são fáceis de personalizar para atender a qualquer necessidade, incluindo instruções personalizadas.

Explore artigos da equipe ElevenLabs

ElevenLabs

Crie com o áudio IA da mais alta qualidade