
Revolut selects ElevenLabs Agents to bolster customer support
Reducing time to ticket resolution by 8x with multilingual conversational agents.
London, Großbritannien– ElevenLabs, der weltweit führende Anbieter von Software für künstliche Spracherkennung, hat heute ein neues mehrsprachiges Modell zur Sprachgenerierung vorgestellt, das in der Lage ist, KI-Audios mit emotionalem Ausdruck in 30 Sprachen zu erzeugen.
Die Entwicklung, die vollständig auf eigener Forschung basiert, ermöglicht es Entwicklern, lokalisierte Audioinhalte für internationale Märkte in Europa, Asien und dem Nahen Osten zu erstellen. ElevenLabs hat in den letzten 18 Monaten Merkmale menschlicher Sprache analysiert, neue Mechanismen für Kontextverständnis und Emotionsausdruck in der Spracherzeugung entwickelt und neue, einzigartige Stimmen synthetisiert.
Mit Eleven Multilingual v2 kann das neue Modell bei der Eingabe von Text in die Text-zu-Sprache-Plattform von ElevenLabs fast 30 Schriftsprachen automatisch erkennen und Sprache in diesen Sprachen mit bisher unerreichter Authentizität erzeugen.
Unabhängig davon, ob eine synthetische oder geklonte Stimme genutzt wird, bleiben die individuellen Stimmmerkmale der Sprecher in allen Sprachen erhalten, einschließlich des ursprünglichen Akzents. So kann mit einer Stimme in 30 verschiedenen Sprachen gesprochen werden.
Diese Einführung folgt auf die öffentliche Freigabe von Professional Voice Cloning für alle Kreativen auf der Plattform. Mit diesem Produktupdate, das zusammen mit zusätzlichen Sicherheitsfunktionen veröffentlicht wurde, können Nutzer eine präzise digitale Kopie ihrer eigenen Stimme erstellen, die
vom Original kaum zu unterscheiden ist. Mit der heutigen Veröffentlichung kann Ihre Stimme in fast 30 Sprachen sprechen, die im Rahmen des mehrsprachigen Modells verfügbar sind.
Zu den unterstützten Sprachen gehören:Koreanisch, Niederländisch, Türkisch, Schwedisch, Indonesisch, Vietnamesisch, Filipino, Ukrainisch, Griechisch, Tschechisch, Finnisch, Rumänisch, Dänisch, Bulgarisch, Malaiisch, Ungarisch, Norwegisch, Slowakisch, Kroatisch, Hocharabisch und Tamilisch. Diese Sprachen ergänzen die bereits verfügbaren Sprachen Englisch, Polnisch, Deutsch, Spanisch, Französisch, Italienisch, Hindi und Portugiesisch.
Nach der Einführung neuer Funktionen und der kontinuierlichen Weiterentwicklung der Plattform hat ElevenLabs heute bestätigt, dass die Plattform die Beta-Phase offiziell verlassen hat. Dieser Schritt unterstreicht das Engagement des Unternehmens, seinen mehr als 1 Million Nutzern weltweit zuverlässige und moderne Werkzeuge bereitzustellen.
Für die Zukunft plant ElevenLabs einen Mechanismus, mit dem Nutzer ihre Stimmen auf der Plattform teilen und von der Entwicklung neuer Audiodaten profitieren können, um die Zusammenarbeit zwischen Mensch und KI zu fördern.
Mati Staniszewski, CEO und Gründer von ElevenLabs, sagt dazu:
„ElevenLabs wurde mit dem Ziel gegründet, alle Inhalte in jeder Sprache und mit jeder Stimme zugänglich zu machen. Mit der Veröffentlichung von Eleven Multilingual v2 sind wir diesem Ziel nähergekommen und machen KI-Stimmen in menschlicher Qualität in jedem Dialekt verfügbar.
Unsere Sprachsynthese-Tools bieten Kreativen hochwertige Optionen für Sprachsynthese. Diese Vorteile gelten jetzt auch für mehrsprachige Anwendungen in fast 30 Sprachen. Wir hoffen, mit KI künftig noch mehr Sprachen und Stimmen abdecken zu können und Sprachbarrieren für Inhalte weiter abzubauen. Wir bei ElevenLabs sind überzeugt, dass diese Fortschritte die Kreativität, Innovation und Vielfalt fördern.“
ElevenLabs senkt die Kosten und den Aufwand für die Erstellung hochwertiger Audioinhalte in mehreren Sprachen. Unternehmen und Kreative können so zugänglichere Inhalte produzieren, die über kulturelle und sprachliche Grenzen hinweg wirken.
Unabhängigen Spieleentwicklern und -verlegern bietet das mehrsprachige Spracherzeugungstool neue Möglichkeiten, Spielerlebnisse und Audioinhalte für ein internationales Publikum zu übersetzen und mit Spielern und Zuhörern in ihrer eigenen Sprache zu kommunizieren, ohne bei Qualität oder Genauigkeit der Sprachausgabe Kompromisse eingehen zu müssen.
Ebenso haben auch Bildungseinrichtungenjetzt die Möglichkeit, Lernenden sofort präzise Audioinhalte in der Zielsprache bereitzustellen, um Sprachverständnis und Aussprache zu verbessern und unterschiedlichen Unterrichtsstilen sowie Lernbedürfnissen internationaler Studierender gerecht zu werden.
Kreative aller Art können das Tool von ElevenLabs nutzen, um die Zugänglichkeitihrer Inhalte für Menschen mit Sehbehinderungen oder zusätzlichen Lernbedürfnissen zu verbessern, indem sie visuelle Inhalte mit Sprache in mehreren Sprachen ergänzen.
Die erste Suite von KI-Sprachtools, die im Januar 2023 vorgestellt wurde, ermöglicht es, jeden Text mithilfe vordefinierter synthetischer Stimmen oder eines eigenen Stimmklons in Sprache umzuwandeln. Das mehrsprachige Sprachsynthese-Tool ist ein weiterer Schritt in der Mission von ElevenLabs, alle Inhalte in jeder Sprache und mit jeder Stimme zugänglich zu machen.
Die Technologie wird bereits in vielen kreativen Branchen eingesetzt. Sie ermöglicht es unabhängigen Autoren, Hörbücher zu erstellen, Nebencharaktere in Videospielen zu vertonen, sehbehinderten Menschen den Zugang zu Online-Inhalten zu erleichtern und den weltweit ersten KI-Radiosender zu betreiben. ElevenLabs arbeitet auch mit führenden Content-Erstellern und Studios zusammen, darunter der KI-Video-Generator D-ID, Storytel, einer der weltweit größten Hörbuchverlage, die Open-Access-Videoplattform ScienceCast, deren Videogenerierungstool wissenschaftliche Forschungsarbeiten aggregiert, die auf arXiv veröffentlicht wurden, die weltweit führende Content-Erstellungsplattform TheSoul Publishing, renommierte Spieleentwickler wie Embark Studios und Paradox Interactive sowie die Medienplattform MNTN.

Reducing time to ticket resolution by 8x with multilingual conversational agents.
.webp&w=3840&q=95)
Yampa leverages ElevenLabs Flash V2.5 to scale human-like outbound voice agents with ultra-low latency and massive concurrency.