
Revolut selects ElevenLabs Agents to bolster customer support
Reducing time to ticket resolution by 8x with multilingual conversational agents.
ElevenLabsのAIエージェントは、音声と言葉、テキスト入力の両方を同時に処理できるようになりました。これにより、より自然で効率的、かつ柔軟なユーザー体験が実現します。
本日、ElevenLabsは会話型AIプラットフォームの大きな進化として、テキストと音声の本格的なマルチモーダル対応を発表します。AIエージェントが話し言葉と入力されたテキストの両方を同時に理解・処理できるようになりました。この機能により、さまざまな用途でより自然で柔軟、かつ効果的なやり取りが可能になります。
音声は直感的で強力なコミュニケーション手段ですが、音声のみのAIエージェントは、特定の状況で課題に直面することがあります。ビジネスでの導入時によく見られる失敗例として、以下のようなものがあります:
エージェントがテキストと音声の両方を処理できることで、ユーザーは伝えたい情報に最適な入力方法を自由に選べます。このハイブリッドなアプローチにより、会話がよりスムーズで安定しやすくなります。普段は自然に話し、正確さが必要な場面や入力が便利なときは、同じやり取りの中でシームレスにテキスト入力へ切り替えることができます。
テキストと音声のマルチモーダル対応により、次のような利点があります:
マルチモーダル会話型AIには、以下の機能が含まれています:
この新しいマルチモーダル機能は、ElevenLabsのプラットフォーム全体で標準対応しています:
マルチモーダルなやり取りは、ElevenLabs会話型AIプラットフォームの既存の革新技術すべての恩恵を受けられます:
ElevenLabsの会話型AIエージェントでテキストと音声のマルチモーダル機能を使い始めるには、AIエージェント:
テキスト+音声のマルチモーダル対応が、会話型AIの機能とユーザー体験を大きく向上させると考えています。ユーザーの皆様がこの新機能をどのように活用されるか、楽しみにしています。

Reducing time to ticket resolution by 8x with multilingual conversational agents.
.webp&w=3840&q=95)
Yampa leverages ElevenLabs Flash V2.5 to scale human-like outbound voice agents with ultra-low latency and massive concurrency.