Que se passe-t-il lorsque deux assistants vocaux IA ont une conversation ?

Lors du hackathon ElevenLabs à Londres, des développeurs ont créé GibberLink, un protocole qui permet aux agents IA de se reconnaître et de passer à un langage sonore hyper-efficace.

Que se passe-t-il lorsque deux assistants vocaux IA ont une conversation ? Si l'IA parle à l'IA, pourquoi devrait-elle se soucier des inefficacités de la parole humaine ? Pourquoi utiliser des mots quand des données pures sont plus rapides, plus précises et à l'abri des erreurs ?

C'est exactement ce qui s'est passé lors du Hackathon ElevenLabs à Londres, où les développeurs Boris Starkov et Anton Pidkuiko ont présenté GibberLink, un mécanisme qui permet aux agents IA de se reconnaître et de passer à un nouveau mode de communication - un mode plus efficace que le langage parlé. Et il n'a pas fallu longtemps pour que l'idée devienne virale, avec des partages de Marques Brownlee, Tim Urban et d'autres.

L'idée derrière GibberLink est simple : L'IA n'a pas besoin de parler comme les humains. Lors du hackathon, Starkov et Pidkuiko ont exploré les limites de la communication traditionnelle entre intelligences artificielles et ont réalisé qu'ils pouvaient éliminer une complexité inutile en permettant aux IA de communiquer entre elles d'une manière optimisée pour les machines.

Ce concept est né lors du Hackathon où Starkov et Pidkuiko expérimentaient avec le produit d'IA conversationnelle d'ElevenLabs, qui vous permet de connecter n'importe quel LLM et de créer un agent.

Starkov a écrit sur LinkedIn$ Nous voulions montrer que dans le monde où les agents IA peuvent passer et recevoir des appels téléphoniques (c'est-à-dire aujourd'hui), ils parleraient occasionnellement entre eux - et générer un discours semblable à celui des humains pour cela serait un gaspillage de calcul, d'argent, de temps et d'environnement. Au lieu de cela, ils devraient passer à un protocole plus efficace dès qu'ils se reconnaissent comme des IA.

En combinant ElevenLabs' Conversational AI technologie avec ggwave, une bibliothèque de données sur son open-source, ils ont créé un système où les assistants IA peuvent détecter quand ils parlent à une autre IA et passer instantanément à un mode de communication plus efficace — transmettant des données structurées par ondes sonores au lieu de mots.

Ils ont utilisé ggwave car c'était "la solution la plus pratique et stable que nous pouvions trouver dans le cadre d'un hackathon", mais il existe d'autres mécanismes pour obtenir les mêmes résultats ou des résultats similaires. Starkov a écrit : Les modems à composition numérique utilisaient des algorithmes similaires pour transmettre des informations par le son depuis les années 80, et un certain nombre de protocoles existaient depuis lors.

Le code du mécanisme a été audité par des ingénieurs d'ElevenLabs et lors de la démonstration, un agent d'IA conversationnelle a été invité à obtenir une chambre d'hôtel pour un mariage, l'autre à répondre à la demande (jouant le rôle du système de réservation d'hôtel). On leur a également dit de passer au protocole de niveau sonore s'ils croyaient que l'autre était également un agent IA, mais on ne leur a pas dit que l'autre était un agent.

Il y a un moment de réalisation dans la vidéo de démonstration où l'IA jouant le client déclare qu'elle est un agent. L'IA de réservation répond et demande s'il faut passer à Gibberlink. On dirait une paire de modems à accès commuté en compétition avec R2D2 pour le prix de la voix de l'année. Vous pouvez voir les points forts de cette conversation numérique en texte sur l'écran de chaque appareil utilisé dans la démonstration, y compris les questions sur le nombre d'invités et les dates.

Comment ça marche

  • Une IA commence à parler normalement — tout comme un assistant vocal interagissant avec un humain.
  • La reconnaissance s'active — si l'IA se rend compte qu'elle parle à une autre IA, elles changent toutes les deux de protocole.
  • Les changements de langue — au lieu de mots prononcés, les agents IA transmettent des données structurées par le biais d'ondes sonores modulées, grâce au système de modulation de fréquence de ggwave.

Plus précisément, une paire d'agents d'IA conversationnelle d'ElevenLabs commence à parler en langage humain. Les deux utilisent une fonction d'appel pour déclencher le mode Gibberlink si les bonnes conditions sont remplies. Si l'outil est appelé, l'appel ElevenLabs est terminé et le protocole "data over sound" de ggwave prend le relais, mais avec le même fil LLM.

Starkov dit que c'était "la magie des outils fournis par ElevenLabs" qui a rendu cela possible, car notre système d'IA conversationnelle "vous permet de demander à l'IA d'exécuter du code personnalisé dans certaines circonstances." Le résultat ? Communication plus rapide, sans erreur, avec une plus grande efficacité.

Comment GibberLink a cassé Internet

Ajoutez une voix à vos agents sur le web, mobile ou téléphonie en quelques minutes. Notre API en temps réel offre une faible latence, une configurabilité complète et une évolutivité sans faille.

GibberLink n'était pas seulement une expérience astucieuse de hackathon - c'est rapidement devenu l'un des sujets d'IA les plus discutés du moment. Et cela s'est produit au cours d'une semaine où xAI a lancé Grok 3 et Anthropic a publié sa dernière itération de Claude Sonnet.

Lorsque Georgi Gerganov, le créateur de ggwave, publié à ce sujet sur X, les communautés d'IA et de technologie ont continué à diffuser la vidéo montrant les deux modèles passer entre la parole humaine et le son. Des influenceurs de renom et des publications technologiques majeures, y compris Forbes, a sauté sur l'histoire.

Luke Harries d'ElevenLabs a le mieux résumé cela dans son X post$ Que se passerait-il si un agent IA passait un appel téléphonique, puis réalisait que l'autre personne est également un agent IA ? Lors du hackathon ElevenLabs à Londres, Boris Starkov et Anton Pidkuiko ont présenté un protocole personnalisé dans lequel les agents IA peuvent passer pour une communication sans erreur qui est 80 % plus efficace. C'est époustouflant.

Pourquoi cela importe

GibberLink est un regard intéressant sur la façon dont l'IA pourrait communiquer à l'avenir, surtout alors que nous entrons dans une situation où les appels entrants et sortants pourraient être gérés par des assistants et agents virtuels.

Imaginez Bots de service client alimentés par l'IA, assistants intelligents, ou même des systèmes autonomes collaborant instantanément dans leur propre mode dédié, puis envoyant simplement un rapport textuel au responsable.

GibberLink est open-source et disponible pour les développeurs à explorer sur Github. Les agents d'IA conversationnelle d'ElevenLabs sont disponibles et faciles à personnaliser pour répondre à tous les besoins, y compris des instructions personnalisées.

En voir plus

ElevenLabs

Créez avec l'audio AI de la plus haute qualité.

Se lancer gratuitement

Vous avez déjà un compte ? Se connecter