
Integrating external agents with ElevenLabs Agents' voice orchestration
Patterns for integrating ElevenLabs voice orchestration with complex and stateful agents
Unsere KI-Agenten können jetzt nahtlos sowohl gesprochene Worte als auch Texteingaben gleichzeitig verarbeiten, was zu natürlicheren, effizienteren und widerstandsfähigeren Benutzerinteraktionen führt.
Heute freut sich ElevenLabs, eine bedeutende Verbesserung unserer Konversations-KI-Plattform anzukündigen: die Einführung echter Text- und Sprach-Multimodalität. Unsere KI-Agenten können nun gesprochene Sprache und getippte Texteingaben gleichzeitig verstehen und verarbeiten. Diese Fähigkeit ist darauf ausgelegt, natürlichere, flexiblere und effektivere Interaktionen für eine Vielzahl von Anwendungsfällen zu schaffen.
Behebung von Einschränkungen bei Sprach-Only-Interaktionen
Das Batch Calling-Feature bietet mehrere Vorteile für ausgehende Kampagnen:
Indem Agenten sowohl Text als auch Sprache verarbeiten können, ermöglichen wir es Benutzern, die Eingabemethode zu wählen, die am besten zu den Informationen passt, die sie übermitteln möchten. Dieser hybride Ansatz ermöglicht reibungslosere, robustere Gespräche. Benutzer können natürlich sprechen und dann, wenn Präzision entscheidend ist oder das Tippen bequemer ist, nahtlos zu Texteingaben innerhalb derselben Interaktion wechseln.
Erste Schritte
Für einen Überblick über die wichtigsten TCPA-Anforderungen bitte
Diese neue multimodale Funktionalität wird plattformweit nativ unterstützt:https://www.11labs.ru/docs/conversational-ai/legal/tcpa

Patterns for integrating ElevenLabs voice orchestration with complex and stateful agents

Exploring how AI audio can support the creative process
Bereitgestellt von ElevenLabs Agenten