
Créez des agents vocaux pour votre entreprise avec notre IA conversationnelle
Lors du hackathon ElevenLabs à Londres, des développeurs ont créé GibberLink, un protocole qui permet aux agents IA de se reconnaître et de passer à un langage sonore ultra-efficace.
Que se passe-t-il quand deux assistants vocaux IA discutent ensemble ? Si une IA parle à une autre IA, pourquoi utiliser la parole humaine, moins efficace ? Pourquoi utiliser des mots alors que des données pures sont plus rapides, précises et fiables ?
C’est exactement ce qui s’est passé lors du hackathon ElevenLabs à Londres, où les développeurs Boris Starkov et Anton Pidkuiko ont présenté GibberLink, un mécanisme qui permet aux agents IA de se reconnaître et de passer à un nouveau mode de communication — bien plus efficace que le langage parlé. L’idée est vite devenue virale, partagée notamment par Marques Brownlee, Tim Urban et d’autres.

L’idée derrière GibberLink est simple : une IA n’a pas besoin de parler comme un humain. Pendant le hackathon, Starkov et Pidkuiko ont exploré les limites du dialogue IA-à-IA traditionnel et ont compris qu’ils pouvaient simplifier les échanges en laissant les IA communiquer de façon optimisée pour les machines.
Ce concept est né lors du hackathon, alors que Starkov et Pidkuiko expérimentaient le produit Conversational AI d’ElevenLabs, qui permet de connecter n’importe quel LLM et de créer un agent.
Starkov a écrit sur LinkedIn : « Nous voulions montrer que dans un monde où les agents IA peuvent passer et recevoir des appels (c’est déjà le cas aujourd’hui), ils se parlent parfois entre eux — et générer une voix humaine pour ça gaspille des ressources, de l’argent, du temps et de l’énergie. À la place, ils devraient passer à un protocole plus efficace dès qu’ils se reconnaissent comme IA. »
En combinant la technologie Conversational AI d’ElevenLabs avec ggwave, une bibliothèque open source de transmission de données par le son, ils ont créé un système où les assistants IA détectent quand ils parlent à une autre IA et passent instantanément à un mode de communication plus efficace — en transmettant des données structurées via des ondes sonores au lieu de mots.
Ils ont choisi ggwave car c’était « la solution la plus pratique et stable que nous avons trouvée dans le temps imparti du hackathon », mais il existe d’autres moyens d’obtenir des résultats similaires. Starkov précise : « Les modems RTC utilisaient déjà des algorithmes similaires pour transmettre des informations par le son depuis les années 80, et de nombreux protocoles existent depuis. »
Le code du mécanisme a été vérifié par les ingénieurs ElevenLabs et, lors de la démo, un agent Conversational AI devait réserver une chambre d’hôtel pour un mariage, l’autre devait répondre à la demande (en jouant le rôle du système de réservation). Ils devaient aussi passer au protocole sonore s’ils pensaient que l’autre était aussi un agent IA, sans savoir à l’avance que c’était le cas.
Dans la vidéo de démonstration, il y a un moment où l’IA qui joue le client déclare être un agent. L’IA de réservation répond et propose de passer à Gibberlink. On dirait deux modems RTC qui rivalisent avec R2D2 pour la voix de l’année. On peut voir les moments forts de cette conversation numérique en texte sur l’écran de chaque appareil utilisé dans la démo, avec des questions sur le nombre d’invités et les dates.
Plus concrètement, deux agents Conversational AI ElevenLabs commencent à discuter en langage humain. Les deux utilisent une fonction d’appel pour activer le mode Gibberlink si les conditions sont réunies. Si l’outil est appelé, l’appel ElevenLabs se termine et le protocole « data over sound » de ggwave prend le relais, mais avec le même fil de discussion LLM.
Starkov explique que c’est « la magie des outils proposés par ElevenLabs » qui a rendu cela possible, car notre système Conversational AI « permet de demander à l’IA d’exécuter du code personnalisé dans certaines situations ». Résultat : une communication plus rapide, fiable et efficace.
Comment GibberLink a fait le buzz

Créez des agents vocaux pour votre entreprise avec notre IA conversationnelle
GibberLink n’était pas juste une astuce de hackathon — c’est vite devenu l’un des sujets IA les plus commentés du moment. Et cela, la même semaine où xAI lançait Grok 3 et Anthropic présentait la nouvelle version de Claude Sonnet.
Quand Georgi Gerganov, le créateur de ggwave, en a parlé sur X, les communautés IA et tech ont continué à partager la vidéo montrant les deux modèles passant de la parole humaine au son. Des influenceurs connus et de grands médias tech, dont Forbes, ont relayé l’histoire.
Luke Harries d’ElevenLabs a parfaitement résumé la situation dans son post sur X : « Et si un agent IA passe un appel, puis réalise que l’interlocuteur est aussi un agent IA ? Au hackathon ElevenLabs de Londres, Boris Starkov et Anton Pidkuiko ont présenté un protocole personnalisé permettant aux agents IA de passer à une communication fiable, 80 % plus efficace. Bluffant. »
Pourquoi c’est important
GibberLink donne un aperçu de la façon dont les IA pourraient communiquer à l’avenir, surtout si les appels entrants et sortants sont gérés par des assistants et agents virtuels.
Imaginez des bots de service client boostés à l’IA, des assistants intelligents ou même des systèmes autonomes qui collaborent instantanément dans leur propre mode dédié, puis envoient simplement un rapport texte à la personne responsable.
GibberLink est open source et disponible pour les développeurs sur GitHub. Les agents Conversational AI ElevenLabs sont accessibles et faciles à personnaliser selon vos besoins, y compris avec des instructions sur mesure.
.webp&w=3840&q=95)
Les utilisateurs d'aujourd'hui s'attendent à une IA conversationnelle qui sonne naturelle, comprend le contexte et répond avec un discours humain

Reducing time to ticket resolution by 8x with multilingual conversational agents.