
Revolut selects ElevenLabs Agents to bolster customer support
Reducing time to ticket resolution by 8x with multilingual conversational agents.
कन्वर्सेशनल AI सिस्टम में बड़े भाषा मॉडल को सही तरीके से प्रॉम्प्ट करना बहुत महत्वपूर्ण है।
आज, LLM कन्वर्सेशनल AI सिस्टम का दिल बन गया है। विशेष रूप से, LLMs कन्वर्सेशनल AI — जो मूल रूप से विस्तृत फोन ट्रीज़ के इर्द-गिर्द बनाए गए थे — को डायनामिक कार्यक्षमता और मानव-समान अनुभव प्रदान करने में सक्षम बनाते हैं। हालांकि, LLMs कोई जादुई समाधान नहीं हैं; उन्हें विशेष प्रॉम्प्टिंग की आवश्यकता होती है क्योंकि वे डिफ़ॉल्ट रूप से मानव भाषण के लिए फाइन-ट्यून नहीं होते।
डेवलपर्स कन्वर्सेशनल AI के लिए LLMs को प्रॉम्प्ट करते समय एक सामान्य गलती करते हैं: वही प्लेबुक का पुन: उपयोग करना जो मानव कर्मचारियों को प्रशिक्षित करने के लिए उपयोग किया गया था। यह रणनीति, सरल लगने के बावजूद, शायद ही कभी फलदायी होती है। LLMs सामान्य मनुष्यों से अलग धारणाएँ बनाते हैं, और उनका डिफ़ॉल्ट टोन और दायरा मौखिक बातचीत के लिए अनुकूल नहीं होता।
आज, हम जानेंगे कि सफल कन्वर्सेशनल AI सिस्टम बनाने के लिए LLMs को कैसे प्रॉम्प्ट किया जाए। आप इस विषय पर अधिक व्यापक और तकनीकी गाइड भी पढ़ सकते हैं ElevenLabs डेवलपर डॉक्यूमेंट्स में।
LLMs से पहले, कन्वर्सेशनल AI सिस्टम विस्तृत लॉजिक ट्रीज़ का उपयोग करते थे जिनके माध्यम से अनुरोध मौखिक इनपुट के आधार पर ट्रायज होते थे। यह सेटअप ग्राहक सेवा नंबरों (जैसे, एयरलाइन हॉटलाइन) और भुगतान प्रणालियों (जैसे, क्रेडिट कार्ड फोन सेवाएं) में लोकप्रिय था।
ये पुराने सिस्टम धीमे थे, रोबोट जैसे लगते थे, और केवल बहुत सीमित मानव इनपुट की अनुमति देते थे। संभावना है कि आपने खुद इस अनुभव का सामना किया हो, फोन में जोर से 'हाँ' चिल्लाकर जवाब देने के लिए। इस खराब अनुभव ने अधिकांश उपयोगकर्ताओं को 'सिस्टम को हराने' का प्रयास करने के लिए प्रेरित किया ताकि वे एक लाइव मानव एजेंट के साथ बातचीत कर सकें।
हालांकि, इन फोन ट्रीज़ का एक फायदा था — वे सीमित थे। बातचीत केवल कुछ ही रास्ते ले सकती थी, और डेवलपर्स आसानी से अवांछित इनपुट को नजरअंदाज करने के लिए गार्डरेल्स लागू कर सकते थे। यह बाधा LLMs के फायदे और नुकसान को रेखांकित करती है: वे फोन ट्रीज़ की सीमित प्रकृति से बहुत आगे बढ़ते हैं, लेकिन वे अप्रत्याशित भी होते हैं, जिससे कई समस्याएं उत्पन्न हो सकती हैं — जैसे असंभव वादे करना, ग्राहकों से नाराज़ होना, या संवेदनशील डेटा का उल्लंघन करना।
यदि LLMs को मूल रूप से मनुष्यों के लिए डिज़ाइन की गई हैंडबुक पर प्रशिक्षित किया जाता है, तो वे कुछ मुख्य अंतरालों के कारण औसत दर्जे की सफलता प्राप्त करेंगे। इन अंतरालों को समझना आपको उन्हें संबोधित करने के लिए प्रॉम्प्ट डिज़ाइन करने में मदद करेगा:
LLMs को रिइनफोर्समेंट लर्निंग के माध्यम से प्रशिक्षित किया जाता है, जहां मानव प्रतिक्रिया LLMs को संरचित प्रतिक्रिया लौटाने के लिए प्रेरित करती है। विशेष रूप से, LLM प्रतिक्रियाएं अक्सर विस्तृत होती हैं और बुलेट्स, कॉल-आउट ब्लॉक्स, और हेडलाइंस से भरी होती हैं।
हालांकि, कन्वर्सेशनल AI के संदर्भ में, LLMs को मौखिक बातचीत की संक्षिप्त और सपाट प्रकृति का अनुकरण करने की आवश्यकता होती है।
LLMs किसी भी अज्ञात को पूछने के बजाय अनुमानित ज्ञान से भरने की प्रवृत्ति रखते हैं। इससे वे गलत धारणाएँ बना सकते हैं जो उपयोगकर्ताओं को गुमराह कर सकती हैं — या महंगी गलतियाँ कर सकती हैं (जैसे, वादे किए गए रिफंड)। बाद में, हम देखेंगे कि हम LLMs को गलत वादे करने और अवांछित कार्यों को निष्पादित करने से रोकने के लिए ज्ञान आधार और गार्डरेल्स का उपयोग कैसे कर सकते हैं।
LLMs प्रोग्रामेटिक रूप से फ़ंक्शन कॉल्स को इनवोक कर सकते हैं, मानवों की ओर से डेटा एकत्र और लिख सकते हैं। जबकि यह आमतौर पर LLMs का सबसे बड़ा लाभ होता है, इसका मतलब यह भी है कि पिछले प्रशिक्षण निर्देश, जो कॉल एजेंटों को कार्य करते समय 'समय खरीदने' की अनुमति देते थे, अब आवश्यक नहीं हैं। हालांकि, फ़ंक्शन कॉल्स भी तात्कालिक नहीं होते, जिसका अर्थ है कि LLMs को उपयोगकर्ता को सही समय पर चेतावनी देनी चाहिए जब भी देरी की उम्मीद हो (जैसे, 'मुझे आपके मामले की जांच करने के लिए एक पल दें')।
LLMs टोन को एक शैली से मेल खाने के लिए बढ़ाने में काफी सफल होते हैं। एक LLM को मित्रवत, हास्यपूर्ण, संक्षिप्त, औपचारिक, या शैलियों के संयोजन में ध्वनि करने के लिए कॉन्फ़िगर किया जा सकता है। यह एक महत्वपूर्ण इनपुट है जब LLM को प्रॉम्प्ट किया जाता है।
उदाहरण के लिए, एक ग्राहक सेवा कन्वर्सेशनल AI एप्लिकेशन के डेवलपर्स जो नाराज़ एयरलाइन ग्राहकों का समर्थन करने के लिए डिज़ाइन किया गया है, एक प्रॉम्प्ट का उपयोग कर सकते हैं जैसे:
Nicole
LLMs को यह स्पष्ट निर्देश प्राप्त करने की आवश्यकता होती है कि कैसे प्रतिक्रिया दें। यह सुनिश्चित करने के लिए कि वे अतिरिक्त पैडर टेक्स्ट शामिल न करें, LLMs को एक संरचना प्रदान की जानी चाहिए जो उपयोगकर्ता को दी जाने वाली प्रतिक्रिया को समाहित करती है।
उदाहरण के लिए, LLMs को प्रॉम्प्ट किया जा सकता है:
यह संरचना LLM को एक प्रतिक्रिया प्रदान करने के लिए प्रोत्साहित करती है जिसे जोर से पढ़ा जाना है।
हालांकि, LLMs कभी-कभी उन चीजों पर अटक सकते हैं जो लिखित सामग्री से स्वाभाविक रूप से भिन्न नहीं होती हैं। एक सामान्य उदाहरण संख्याएँ हैं — एक LLM एक ज़िपकोड को 10023 की तरह प्रिंट कर सकता है, जिससे टेक्स्ट टू स्पीच मॉडल कहेगा, 'दस हजार और तेईस।' इसके बजाय, LLM को स्पष्ट रूप से संकेत दिया जाना चाहिए कि संख्याओं को व्यक्तिगत रूप से कहा जाए, यह संकेत देते हुए कि संख्याएँ क्या दर्शाती हैं, जैसे, 'ज़िपकोड एक शून्य शून्य दो तीन है।'
तापमान कन्वर्सेशनल AI के लिए LLMs को कॉन्फ़िगर करते समय एक महत्वपूर्ण पैरामीटर है। कम तापमान अधिक केंद्रित, निर्धारक प्रतिक्रियाएँ उत्पन्न करता है जो कार्य-उन्मुख वार्तालापों के लिए आदर्श होती हैं, जबकि उच्च तापमान अधिक रचनात्मक, विविध प्रतिक्रियाएँ उत्पन्न करता है।
एक कम तापमान उन कन्वर्सेशनल AI सिस्टम के लिए आदर्श है जो सुसंगत प्रतिक्रियाएँ पसंद कर सकते हैं (जैसे, रिफंड के लिए ग्राहक सेवा लाइन)। इस बीच, उन सिस्टम के लिए जो ग्राहकों को अधिक आकर्षक और वास्तविक अनुभव प्रदान करना चाहते हैं (जैसे, एक डिजिटल कोच), एक उच्च तापमान बेहतर है:
उन कन्वर्सेशनल AI सिस्टम के लिए जो बड़े ज्ञान भंडारों का उपयोग करते हैं, एक ज्ञान आधार का उपयोग प्रॉम्प्ट की लंबाई को कम करने के लिए किया जाना चाहिए। उत्पादन में, यह आमतौर पर एक वेक्टर डेटाबेस (जैसे, Pinecone या Elasticsearch) या LLM प्रदाता के सीधे ज्ञान स्टोर के माध्यम से पूरा किया जाता है।
सामान्य रूप से, ज्ञान आधार LLM प्रतिक्रियाओं को तथ्यात्मक, अनुमोदित जानकारी में आधार बनाने के लिए आवश्यक होते हैं। जब एक कन्वर्सेशनल AI सिस्टम का निर्माण किया जाता है, तो आपको LLM को एक व्यापक ज्ञान आधार प्रदान करना चाहिए जिसमें उत्पादों, सेवाओं, नीतियों, और प्रक्रियाओं के बारे में सटीक, अद्यतन जानकारी हो। यह LLM को कल्पना करने या जानकारी बनाने से रोकता है जबकि वार्तालापों में सुसंगत और विश्वसनीय प्रतिक्रियाओं को प्रोत्साहित करता है।
क्योंकि LLMs अक्सर उपयोगकर्ता की ओर से कार्यों को इनवोक करते हैं, उन्हें यह भी जानना होता है कि कौन से इनपुट स्पष्ट रूप से आवश्यक हैं। उदाहरण के लिए, यदि LLM का काम उपयोगकर्ता को हेयरकट अपॉइंटमेंट शेड्यूल करने में मदद करना है, तो उन्हें यह सुनिश्चित करना होगा कि उनके पास है:
एक सरल कार्यान्वयन के परिणामस्वरूप LLM एक ही बार में सभी जानकारी के लिए पूछ सकता है। यह पाठ के रूप में ठीक है, लेकिन एक वार्तालाप में, यह भारी हो सकता है:
क्योंकि जानकारी आमतौर पर वार्तालाप के माध्यम से धीरे-धीरे एकत्र की जाती है, LLMs को इस जानकारी को टुकड़ों में प्राप्त करने के लिए प्रोत्साहित किया जाना चाहिए। परिणामस्वरूप एक अधिक वार्तालापपूर्ण अनुभव होता है:
जब वितरित सिस्टम का निर्माण किया जाता है, तो आप यह मानते हैं कि आपका सर्वर किसी बिंदु पर क्रैश हो जाएगा। इसी तरह, जब AI सिस्टम का निर्माण किया जाता है, तो आपको यह मानना चाहिए कि आपका LLM किसी बिंदु पर गलती करेगा। उस गलती के प्रभाव को कम करने के लिए, आपको इन सिस्टम्स को काम के लिए आवश्यक न्यूनतम अनुमतियाँ देनी चाहिए। नीचे कुछ उदाहरण दिए गए हैं कि आप यह कैसे कर सकते हैं:
जब वार्तालाप AI वॉइस एजेंट सिस्टम बनाए जाते हैं जो टूल उपयोग के माध्यम से कार्य करते हैं, तो यह सुनिश्चित करने के लिए एक मान्यता और सत्यापन प्रक्रिया बनाना सहायक होता है कि आप उपयोगकर्ताओं से सही जानकारी एकत्र कर रहे हैं। आज, जब आप एक मानव एजेंट से बात करते हैं, तो वे किसी भी महत्वपूर्ण जानकारी को दोहराते हैं जो आप उन्हें देते हैं ताकि यह सुनिश्चित हो सके कि उन्होंने इसे सही सुना और ग्राहक ने गलत नहीं कहा। LLMs इसी तरह की त्रुटि-जांच से लाभ उठा सकते हैं:
सत्यापन के लिए, ग्राहक से प्राप्त किसी भी जानकारी की उस जानकारी की सामान्य संरचना के खिलाफ जाँच की जानी चाहिए। क्या फोन नंबर में सही संख्या में अंक हैं? क्या ग्राहक द्वारा दी गई उम्र एक उचित सीमा के भीतर है? क्या ग्राहक ने एक मान्य पता प्रदान किया?
आपके उपयोग के मामले के आधार पर, आप प्राप्त सभी जानकारी को सत्यापित कर सकते हैं या केवल उस जानकारी को जो सत्यापन में विफल रही। इसके अलावा, आप यह तय कर सकते हैं कि प्रत्येक जानकारी के टुकड़े को आते ही सत्यापित करें या अंत में सब कुछ सत्यापित करें।
सफलतापूर्वक एक कन्वर्सेशनल AI एजेंट सिस्टम को प्रॉम्प्ट करना सही कॉन्फ़िगरेशन और गार्डरेल्स को संतुलित करने में शामिल होता है ताकि एक ऐसा अनुभव उत्पन्न हो सके जो एक मानव से बात करने जैसा हो लेकिन अधिक दक्षता के साथ। प्रक्रिया उतनी सरल नहीं है जितनी पुराने प्रशिक्षण सामग्री का उपयोग करके LLM को प्रॉम्प्ट करना; इसके बजाय, LLMs ऐसे उपकरण हैं जिन्हें पूर्वानुमानित, प्रभावी परिणाम उत्पन्न करने के लिए विशेष संरचना और रणनीति की आवश्यकता होती है।

Reducing time to ticket resolution by 8x with multilingual conversational agents.
.webp&w=3840&q=95)
Yampa leverages ElevenLabs Flash V2.5 to scale human-like outbound voice agents with ultra-low latency and massive concurrency.