
Revolut selects ElevenLabs Agents to bolster customer support
Reducing time to ticket resolution by 8x with multilingual conversational agents.
इस साल की कॉन्फ्रेंस हमारे लिए अब तक का सबसे अच्छा मौका था अपने शोध और उसके परिणाम साझा करने का
हम अभी-अभी इस साल की INTERSPEECH कॉन्फ्रेंस से लौटे हैं, जो हमारे लिए अब तक का सबसे अच्छा मौका था हमारे विकास को प्रस्तुत करने और उस पर प्रतिक्रिया प्राप्त करने का, जिस पर हम पिछले कुछ महीनों से काम कर रहे थे।
इस क्षेत्र के सर्वश्रेष्ठ लोगों से सीखना और विचार साझा करना बहुत अच्छा रहा और इस प्रक्रिया में भविष्य के संबंध बनाना भी। हमने कुछ शानदार स्टार्टअप्स की टीमों से मुलाकात की जो हमारे जैसे ही क्षेत्र में काम कर रही हैं, विशेष रूप से वॉइस क्लोनिंग, स्पीच सिंथेसिस (TTS) और वॉइस कन्वर्ज़न (VC) पर (Supertone और LOVO जैसे कुछ नाम)। हम Meta और Google जैसी स्थापित कंपनियों के साथ बातचीत करने के लिए भी उतने ही उत्साहित थे, जो TTS और VC सॉफ़्टवेयर के विकास में पर्दे के पीछे का काम करती हैं।
हम सीधे काम पर लग गए। हमारे काम के लिए मिली सच्ची उत्सुकता ने हमें बहुत खुश कर दिया - यह हमारी सभी अपेक्षाओं से बढ़कर था। अगले चार दिनों में हमने ऊपर बताए गए तीन स्पीच टेक क्षेत्रों में अपने शोध और प्रगति पर चर्चा की - जो हमारे स्वामित्व वाले ऑटोमैटिक डबिंग टूल के विकास की दिशा में बिल्कुल महत्वपूर्ण पहले कदम हैं, जिसका संस्करण 1.0 हम अगले साल की शुरुआत में जारी करने की योजना बना रहे हैं।
हमारे लिए यहां सबसे महत्वपूर्ण बात यह थी कि हम यह साबित कर सकें कि हम वॉइस को सही ढंग से क्लोन कर सकते हैं - कि हम उस स्रोत वॉइस डेटा के बीच वॉइस समानता को बनाए रखने में सक्षम हैं, जिस पर हम अपने एल्गोरिदम को प्रशिक्षित करते हैं और जब वही वॉइस सिंथेटिक रूप से उत्पन्न होती है। और दूसरी बात, हमारे लिए यह साबित करना महत्वपूर्ण था कि हमारे TTS टूल्स सबसे मानव और प्राकृतिक लगने वाले सिंथेटिक स्पीच प्लेटफॉर्म का हिस्सा बनने की दिशा में हैं, जो अद्वितीय प्रोसोडी और टोनलिटी प्रदान करते हैं।
पहला स्वाभाविक रूप से महत्वपूर्ण है क्योंकि हमें यह सुनिश्चित करना है कि नई उत्पन्न की गई बातें किसी विशेष व्यक्ति द्वारा बोली गई के रूप में आसानी से पहचानी जा सकें - हमें स्पीकर की पहचान को सही ढंग से बनाए रखना है। प्रोसोडी और टोनलिटी महत्वपूर्ण हैं क्योंकि टोन और गति इरादे को व्यक्त करते हैं, जो वास्तव में भाषण को मानव जैसा बनाता है। यहां लक्ष्य यह है कि प्रोग्राम न केवल शब्दों का सही उच्चारण करे बल्कि उसे एक उपयुक्त भावनात्मक चार्ज के साथ प्रस्तुत करे ताकि ऐसा लगे कि यह समझता है क्या यह कह रहा है।
आप नीचे दिए गए सम्मेलन के दौरान उपयोग किए गए एक TTS डेमो को देख सकते हैं। पहला लिंक मूल वीडियो है और फिर हमारे नमूने में वही संदेश एक अलग आवाज़ में बोला गया है। ध्यान दें, यह टेक्स्ट टू स्पीच है - वॉइस कन्वर्ज़न नहीं। हमारा एकमात्र इनपुट मूल वीडियो में बोले गए शब्दों को लिखना था ताकि आप जो भाषण सुनते हैं उसे उत्पन्न किया जा सके। सभी प्रोसोडी और इंटोनेशन एल्गोरिदम पर निर्भर हैं, इसमें कोई पोस्ट-प्रोसेसिंग शामिल नहीं है। देखें कि क्या आप पहचान सकते हैं कि यह किसकी आवाज़ है!
आप हमारे अगले लेख में Eleven TTS तकनीक के बारे में अधिक पढ़ेंगे, जो विशेष रूप से टेक्स्ट इनपुट से भाषण उत्पन्न करने पर केंद्रित है।
यदि आपको हमारी तकनीक पसंद है और आप हमारे बीटा-टेस्टर बनना चाहते हैं, तो आप इसके लिए यहां क्लिक करें साइन अप कर सकते हैं।
मूल:
Eleven Labs वॉइस क्लोनिंग TTS:
कॉन्फ्रेंस से पहले के महीनों में हमारे प्रयास लगभग पूरी तरह से हमारी तकनीक के प्रदर्शनीय नमूने देने और हमारे स्वामित्व वाले शोध को दिखाने पर केंद्रित थे। आखिरकार, INTERSPEECH एक शोध सम्मेलन है और हम दृढ़ थे कि सामग्री को रूप से पहले आना चाहिए, विशेष रूप से एक ऐसी सभा में जो इतनी विशेष रूप से उन्मुख है। हालांकि, कॉन्फ्रेंस के दिन, हमने मजाक में कहा कि शायद हमारी तकनीक पर बढ़ी हुई फोकस ने हमारे ब्रांडिंग प्रयासों को बहुत ही न्यूनतम बना दिया। हम जल्द ही काफी राहत महसूस कर रहे थे, अगर सही नहीं थे!, यह देखकर कि अन्य, बड़े खिलाड़ी भी, साधारण सेट-अप का चयन कर रहे थे।
हमारी कोरिया यात्रा Eleven के लिए एक बड़ी सफलता थी और आगे बढ़ने के लिए एक बड़ी प्रेरणा। हम पहले से ही इस बारे में सोचकर उत्साहित हैं कि हम इस अगले साल में अपने शोध और इसे प्रस्तुत करने के तरीकों में कितना प्रगति कर सकते हैं। उम्मीद है कि तब तक हमारे प्रोडक्शन-क्वालिटी डबिंग टूल्स तैयार हो जाएंगे और हम लोगों की आवाज़ों का उपयोग करके उन्हें उन भाषाओं में बोलने देंगे जो वे नहीं जानते।

Reducing time to ticket resolution by 8x with multilingual conversational agents.
.webp&w=3840&q=95)
Yampa leverages ElevenLabs Flash V2.5 to scale human-like outbound voice agents with ultra-low latency and massive concurrency.