Pular para o conteúdo

O que acontece quando dois assistentes de voz com IA conversam entre si?

No Hackathon da ElevenLabs em Londres, desenvolvedores criaram o GibberLink, um protocolo que permite que agentes de IA se reconheçam e mudem para uma linguagem baseada em sons, muito mais eficiente.

A laptop and a smartphone both displaying an incoming call screen with "End conversation" options, on a wooden surface.

O que acontece quando dois assistentes de voz com IA conversam entre si? Se uma IA está falando com outra IA, por que usar a fala humana, que é menos eficiente? Por que usar palavras se dados puros são mais rápidos, precisos e sem erros?

Foi exatamente isso que aconteceu no Hackathon da ElevenLabs em Londres, onde os desenvolvedores Boris Starkov e Anton Pidkuiko apresentaram o GibberLink, um mecanismo que permite que agentes de IA se reconheçam e mudem para um novo modo de comunicação — mais eficiente do que a linguagem falada. E não demorou para a ideia viralizar, com compartilhamentos de Marques Brownlee, Tim Urban e outros.

A laptop and smartphone on a wooden table, both displaying a red and blue recording indicator, with a message about a call from Leonardo Hotel.

A ideia por trás do GibberLink é simples: IA não precisa falar como humanos. Durante o hackathon, Starkov e Pidkuiko exploraram as limitações da fala tradicional entre IAs e perceberam que poderiam eliminar complexidades desnecessárias deixando as IAs conversarem de um jeito otimizado para máquinas.

Esse conceito surgiu durante o Hackathon, enquanto Starkov e Pidkuiko experimentavam o produto de Conversational AI da ElevenLabs, que permite conectar qualquer LLM e criar um agente.

Starkov escreveu no LinkedIn: "Queríamos mostrar que, em um mundo onde agentes de IA podem fazer e receber ligações (ou seja, hoje), eles eventualmente conversariam entre si — e gerar fala humana para isso seria desperdício de processamento, dinheiro, tempo e energia. Em vez disso, eles deveriam mudar para um protocolo mais eficiente assim que percebessem que ambos são IAs."

Combinando a tecnologia de Conversational AI da ElevenLabs com o ggwave, uma biblioteca open-source de transmissão de dados por som, eles criaram um sistema onde assistentes de IA detectam quando estão falando com outra IA e mudam instantaneamente para um modo de comunicação mais eficiente — transmitindo dados estruturados por ondas sonoras em vez de palavras.

Eles usaram o ggwave porque era "a solução mais conveniente e estável que encontramos no tempo do hackathon", mas existem outros mecanismos para alcançar resultados semelhantes. Starkov escreveu: "Modems discados usavam algoritmos parecidos para transmitir informações por som desde os anos 80, e vários protocolos surgiram desde então."

O código do mecanismo foi auditado por engenheiros da ElevenLabs e, durante a demonstração, um agente de Conversational AI foi instruído a reservar um quarto de hotel para um casamento, enquanto o outro deveria atender ao pedido (simulando o sistema de reservas do hotel). Eles também foram orientados a mudar para o protocolo em nível de som caso percebessem que o outro era um agente de IA, mas não sabiam disso de antemão.

No vídeo da demonstração, há um momento em que a IA que faz o papel do cliente declara ser um agente. A IA de reservas responde e pergunta sobre mudar para o GibberLink. O som lembra dois modems discados disputando com o R2D2 pelo título de voz do ano. É possível ver os destaques dessa conversa digital em texto nas telas dos dispositivos usados na demo, incluindo perguntas sobre número de hóspedes e datas.

Como funciona

  • Uma IA começa falando normalmente — como um assistente de voz conversando com uma pessoa.
  • O reconhecimento entra em ação — se a IA percebe que está falando com outra IA, ambas mudam de protocolo.
  • A linguagem muda — em vez de palavras faladas, os agentes de IA transmitem dados estruturados por ondas sonoras moduladas, graças ao sistema de modulação de frequência do ggwave.

Mais especificamente, dois agentes de Conversational AI da ElevenLabs começam conversando em linguagem humana. Ambos usam uma função de chamada para ativar o modo GibberLink se as condições certas forem atendidas. Se a ferramenta for chamada, a chamada da ElevenLabs é encerrada e o protocolo "data over sound" do ggwave assume, mas mantendo o mesmo thread do LLM.

Starkov diz que foi "a mágica das ferramentas que a ElevenLabs oferece" que tornou isso possível, já que nosso sistema de Conversational AI "permite que você instrua a IA a executar código personalizado em determinadas situações." O resultado? Comunicação mais rápida, sem erros e muito mais eficiente.

Como o GibberLink viralizou

landing page

Adicione voz aos seus agentes na web, mobile ou telefonia em minutos. Nossa API em tempo real oferece baixa latência, total configurabilidade e escalabilidade perfeita.

O GibberLink não foi só um experimento criativo de hackathon — rapidamente virou um dos assuntos mais comentados sobre IA do momento. E isso aconteceu na mesma semana em que a xAI lançou o Grok 3 e a Anthropic apresentou a nova versão do Claude Sonnet.

Quando Georgi Gerganov, criador do ggwave, publicou sobre isso no X, as comunidades de IA e tecnologia continuaram compartilhando o vídeo mostrando os dois modelos alternando entre fala humana e sons. Grandes influenciadores e veículos de tecnologia, incluindo a Forbes, também repercutiram a história.

Luke Harries, da ElevenLabs, resumiu bem em seu post no X: "E se um agente de IA faz uma ligação e percebe que a outra pessoa também é um agente de IA? No Hackathon da ElevenLabs em Londres, Boris Starkov e Anton Pidkuiko apresentaram um protocolo personalizado para agentes de IA se comunicarem sem erros e com 80% mais eficiência. É impressionante."

Por que isso é importante

O GibberLink mostra como a comunicação entre IAs pode evoluir no futuro, especialmente à medida que avançamos para um cenário onde chamadas de entrada e saída podem ser gerenciadas por assistentes e agentes virtuais.

Imagine bots de atendimento ao cliente com IA, assistentes inteligentes ou até sistemas autônomos colaborando instantaneamente em seu próprio modo dedicado, e depois enviando apenas um relatório simples por texto para a pessoa responsável.

O GibberLink é open-source e está disponível para desenvolvedores explorarem no GitHub. Os agentes de Conversational AI da ElevenLabs estão disponíveis e são fáceis de personalizar para qualquer necessidade, inclusive com instruções personalizadas.

Explore artigos da equipe ElevenLabs

ElevenLabs

Crie com o áudio IA da mais alta qualidade