.webp&w=3840&q=80)
Best practice per creare chatbot conversazionali con Text-to-Speech
- Data
All'ElevenLabs London Hackathon, alcuni sviluppatori hanno creato GibberLink, un protocollo che permette agli agenti IA di riconoscersi e passare a un linguaggio sonoro iper-efficiente
Cosa succede quando due assistenti vocali IA fanno una conversazione? Se un’IA parla con un’altra IA, perché dovrebbe usare l’inefficienza del linguaggio umano? Perché usare le parole quando i dati puri sono più veloci, precisi e senza errori?
È proprio quello che è successo all'ElevenLabs London Hackathon, dove gli sviluppatori Boris Starkov e Anton Pidkuiko hanno presentato GibberLink, un meccanismo che permette agli agenti IA di riconoscersi e passare a una nuova modalità di comunicazione — più efficiente del linguaggio parlato. L’idea è diventata virale in poco tempo, condivisa anche da Marques Brownlee, Tim Urban e altri.

L’idea alla base di GibberLink è semplice: l’IA non ha bisogno di parlare come gli esseri umani. Durante l’hackathon, Starkov e Pidkuiko hanno esplorato i limiti della comunicazione vocale tradizionale tra IA e hanno capito che potevano eliminare molta complessità lasciando che le IA comunicassero tra loro in modo ottimizzato per le macchine.
Questo concetto è nato durante l’Hackathon, mentre Starkov e Pidkuiko sperimentavano con il prodotto di IA conversazionale di ElevenLabs, che permette di collegare qualsiasi LLM e creare un agente.
Starkov ha scritto su LinkedIn: "Volevamo mostrare che in un mondo dove gli agenti IA possono fare e ricevere telefonate (cioè oggi), a volte parlano tra loro — e generare parlato umano in questi casi sarebbe uno spreco di risorse, denaro, tempo e impatto ambientale. Invece, dovrebbero passare a un protocollo più efficiente non appena si riconoscono come IA."
Unendo la tecnologia di IA conversazionale di ElevenLabs con ggwave, una libreria open-source per la trasmissione di dati tramite suono, hanno creato un sistema in cui gli assistenti IA possono rilevare quando stanno parlando con un’altra IA e passare subito a una modalità di comunicazione più efficiente — trasmettendo dati strutturati tramite onde sonore invece che parole.
Hanno scelto ggwave perché era "la soluzione più comoda e stabile che abbiamo trovato nei tempi di un hackathon", ma esistono altri meccanismi per ottenere risultati simili. Starkov ha scritto: "I modem dial-up usavano algoritmi simili per trasmettere informazioni tramite suono già dagli anni ‘80, e da allora sono nati diversi protocolli."
Il codice del meccanismo è stato verificato dagli ingegneri ElevenLabs e durante la demo un agente Conversational AI doveva prenotare una stanza d’hotel per un matrimonio, l’altro doveva gestire la richiesta (simulando il sistema di prenotazione). Entrambi dovevano passare al protocollo sonoro se pensavano di parlare con un’altra IA, ma non sapevano che anche l’altro fosse un agente.
Nel video demo c’è un momento in cui l’IA che interpreta il cliente dichiara di essere un agente. L’IA per le prenotazioni risponde e chiede di passare a GibberLink. Sembra una gara tra modem dial-up e R2D2 per la voce dell’anno. Puoi vedere i momenti salienti di questa conversazione digitale in testo sugli schermi dei dispositivi usati nella demo, comprese domande su numero di ospiti e date.
Più nello specifico, una coppia di agenti Conversational AI di ElevenLabs inizia a parlare in linguaggio umano. Entrambi usano una funzione di chiamata per attivare la modalità GibberLink se si verificano le condizioni giuste. Se lo strumento viene chiamato, la chiamata ElevenLabs si interrompe e subentra il protocollo ggwave "data over sound", ma con lo stesso thread LLM.
Starkov dice che è stata "la magia degli strumenti che ElevenLabs mette a disposizione" a rendere tutto possibile, perché il nostro sistema di IA conversazionale "permette di istruire l’IA a eseguire codice personalizzato in determinate circostanze." Il risultato? Comunicazione più veloce, senza errori e molto più efficiente.
Come GibberLink ha conquistato il web
GibberLink non è stato solo un esperimento ingegnoso da hackathon — è diventato subito uno degli argomenti IA più discussi del momento. E questo proprio nella settimana in cui xAI ha lanciato Grok 3 e Anthropic ha presentato la nuova versione di Claude Sonnet.
Quando Georgi Gerganov, creatore di ggwave, ne ha parlato su X, le community IA e tech hanno continuato a condividere il video in cui i due modelli passano dal parlato umano al suono. Influencer di spicco e grandi testate tech, tra cui Forbes, hanno ripreso la storia.
Luke Harries di ElevenLabs l’ha riassunta al meglio nel suo post su X: "E se un agente IA fa una telefonata e poi si accorge che anche l’altro è un agente IA? All’ElevenLabs London Hackathon, Boris Starkov e Anton Pidkuiko hanno presentato un protocollo personalizzato che permette agli agenti IA di passare a una comunicazione senza errori e più efficiente dell’80%. È davvero incredibile."
Perché è importante
GibberLink offre uno sguardo interessante su come l’IA potrebbe comunicare in futuro, soprattutto ora che sia le chiamate in entrata che in uscita potrebbero essere gestite da assistenti e agenti virtuali.
Immagina bot di assistenza clienti basati su IA, assistenti intelligenti o persino sistemi autonomi che collaborano all’istante nella loro modalità dedicata, per poi inviare un semplice report testuale alla persona responsabile.
GibberLink è open-source e disponibile per gli sviluppatori su GitHub. Gli agenti Conversational AI di ElevenLabs sono disponibili e facili da personalizzare per ogni esigenza, anche con istruzioni su misura.
.webp&w=3840&q=80)


%20(1).webp&w=3840&q=80)