
Adicione voz aos seus agentes na web, mobile ou telefonia em minutos. Nossa API em tempo real oferece baixa latência, total configurabilidade e escalabilidade perfeita.
No Hackathon da ElevenLabs em Londres, desenvolvedores criaram o GibberLink, um protocolo que permite que agentes de IA se reconheçam e mudem para uma linguagem baseada em sons, muito mais eficiente.
O que acontece quando dois assistentes de voz com IA conversam entre si? Se uma IA está falando com outra IA, por que usar a fala humana, que é menos eficiente? Por que usar palavras se dados puros são mais rápidos, precisos e sem erros?
Foi exatamente isso que aconteceu no Hackathon da ElevenLabs em Londres, onde os desenvolvedores Boris Starkov e Anton Pidkuiko apresentaram o GibberLink, um mecanismo que permite que agentes de IA se reconheçam e mudem para um novo modo de comunicação — mais eficiente do que a linguagem falada. E não demorou para a ideia viralizar, com compartilhamentos de Marques Brownlee, Tim Urban e outros.

A ideia por trás do GibberLink é simples: IA não precisa falar como humanos. Durante o hackathon, Starkov e Pidkuiko exploraram as limitações da fala tradicional entre IAs e perceberam que poderiam eliminar complexidades desnecessárias deixando as IAs conversarem de um jeito otimizado para máquinas.
Esse conceito surgiu durante o Hackathon, enquanto Starkov e Pidkuiko experimentavam o produto de Conversational AI da ElevenLabs, que permite conectar qualquer LLM e criar um agente.
Starkov escreveu no LinkedIn: "Queríamos mostrar que, em um mundo onde agentes de IA podem fazer e receber ligações (ou seja, hoje), eles eventualmente conversariam entre si — e gerar fala humana para isso seria desperdício de processamento, dinheiro, tempo e energia. Em vez disso, eles deveriam mudar para um protocolo mais eficiente assim que percebessem que ambos são IAs."
Combinando a tecnologia de Conversational AI da ElevenLabs com o ggwave, uma biblioteca open-source de transmissão de dados por som, eles criaram um sistema onde assistentes de IA detectam quando estão falando com outra IA e mudam instantaneamente para um modo de comunicação mais eficiente — transmitindo dados estruturados por ondas sonoras em vez de palavras.
Eles usaram o ggwave porque era "a solução mais conveniente e estável que encontramos no tempo do hackathon", mas existem outros mecanismos para alcançar resultados semelhantes. Starkov escreveu: "Modems discados usavam algoritmos parecidos para transmitir informações por som desde os anos 80, e vários protocolos surgiram desde então."
O código do mecanismo foi auditado por engenheiros da ElevenLabs e, durante a demonstração, um agente de Conversational AI foi instruído a reservar um quarto de hotel para um casamento, enquanto o outro deveria atender ao pedido (simulando o sistema de reservas do hotel). Eles também foram orientados a mudar para o protocolo em nível de som caso percebessem que o outro era um agente de IA, mas não sabiam disso de antemão.
No vídeo da demonstração, há um momento em que a IA que faz o papel do cliente declara ser um agente. A IA de reservas responde e pergunta sobre mudar para o GibberLink. O som lembra dois modems discados disputando com o R2D2 pelo título de voz do ano. É possível ver os destaques dessa conversa digital em texto nas telas dos dispositivos usados na demo, incluindo perguntas sobre número de hóspedes e datas.
Mais especificamente, dois agentes de Conversational AI da ElevenLabs começam conversando em linguagem humana. Ambos usam uma função de chamada para ativar o modo GibberLink se as condições certas forem atendidas. Se a ferramenta for chamada, a chamada da ElevenLabs é encerrada e o protocolo "data over sound" do ggwave assume, mas mantendo o mesmo thread do LLM.
Starkov diz que foi "a mágica das ferramentas que a ElevenLabs oferece" que tornou isso possível, já que nosso sistema de Conversational AI "permite que você instrua a IA a executar código personalizado em determinadas situações." O resultado? Comunicação mais rápida, sem erros e muito mais eficiente.
Como o GibberLink viralizou

Adicione voz aos seus agentes na web, mobile ou telefonia em minutos. Nossa API em tempo real oferece baixa latência, total configurabilidade e escalabilidade perfeita.
O GibberLink não foi só um experimento criativo de hackathon — rapidamente virou um dos assuntos mais comentados sobre IA do momento. E isso aconteceu na mesma semana em que a xAI lançou o Grok 3 e a Anthropic apresentou a nova versão do Claude Sonnet.
Quando Georgi Gerganov, criador do ggwave, publicou sobre isso no X, as comunidades de IA e tecnologia continuaram compartilhando o vídeo mostrando os dois modelos alternando entre fala humana e sons. Grandes influenciadores e veículos de tecnologia, incluindo a Forbes, também repercutiram a história.
Luke Harries, da ElevenLabs, resumiu bem em seu post no X: "E se um agente de IA faz uma ligação e percebe que a outra pessoa também é um agente de IA? No Hackathon da ElevenLabs em Londres, Boris Starkov e Anton Pidkuiko apresentaram um protocolo personalizado para agentes de IA se comunicarem sem erros e com 80% mais eficiência. É impressionante."
Por que isso é importante
O GibberLink mostra como a comunicação entre IAs pode evoluir no futuro, especialmente à medida que avançamos para um cenário onde chamadas de entrada e saída podem ser gerenciadas por assistentes e agentes virtuais.
Imagine bots de atendimento ao cliente com IA, assistentes inteligentes ou até sistemas autônomos colaborando instantaneamente em seu próprio modo dedicado, e depois enviando apenas um relatório simples por texto para a pessoa responsável.
O GibberLink é open-source e está disponível para desenvolvedores explorarem no GitHub. Os agentes de Conversational AI da ElevenLabs estão disponíveis e são fáceis de personalizar para qualquer necessidade, inclusive com instruções personalizadas.
.webp&w=3840&q=95)
Os usuários de hoje esperam IA conversacional que soe natural, entenda o contexto e responda com fala semelhante à humana

Reducing time to ticket resolution by 8x with multilingual conversational agents.