कॉन्टेंट पर जाएं

कन्वर्सेशनल AI सिस्टम को कैसे प्रॉम्प्ट करें

कन्वर्सेशनल AI सिस्टम में बड़े भाषा मॉडल को सही तरीके से प्रॉम्प्ट करना बहुत महत्वपूर्ण है।

A split image showing the interior of a circular parking garage on the left and a blue background with radiating black lines on the right.

आज, LLM कन्वर्सेशनल AI सिस्टम का दिल बन गया है। विशेष रूप से, LLMs कन्वर्सेशनल AI — जो मूल रूप से विस्तृत फोन ट्रीज़ के इर्द-गिर्द बनाए गए थे — को डायनामिक कार्यक्षमता और मानव-समान अनुभव प्रदान करने में सक्षम बनाते हैं। हालांकि, LLMs कोई जादुई समाधान नहीं हैं; उन्हें विशेष प्रॉम्प्टिंग की आवश्यकता होती है क्योंकि वे डिफ़ॉल्ट रूप से मानव भाषण के लिए फाइन-ट्यून नहीं होते।

डेवलपर्स कन्वर्सेशनल AI के लिए LLMs को प्रॉम्प्ट करते समय एक सामान्य गलती करते हैं: वही प्लेबुक का पुन: उपयोग करना जो मानव कर्मचारियों को प्रशिक्षित करने के लिए उपयोग किया गया था। यह रणनीति, सरल लगने के बावजूद, शायद ही कभी फलदायी होती है। LLMs सामान्य मनुष्यों से अलग धारणाएँ बनाते हैं, और उनका डिफ़ॉल्ट टोन और दायरा मौखिक बातचीत के लिए अनुकूल नहीं होता।

आज, हम जानेंगे कि सफल कन्वर्सेशनल AI सिस्टम बनाने के लिए LLMs को कैसे प्रॉम्प्ट किया जाए। आप इस विषय पर अधिक व्यापक और तकनीकी गाइड भी पढ़ सकते हैं ElevenLabs डेवलपर डॉक्यूमेंट्स में।

पुराना सिस्टम

LLMs से पहले, कन्वर्सेशनल AI सिस्टम विस्तृत लॉजिक ट्रीज़ का उपयोग करते थे जिनके माध्यम से अनुरोध मौखिक इनपुट के आधार पर ट्रायज होते थे। यह सेटअप ग्राहक सेवा नंबरों (जैसे, एयरलाइन हॉटलाइन) और भुगतान प्रणालियों (जैसे, क्रेडिट कार्ड फोन सेवाएं) में लोकप्रिय था।

ये पुराने सिस्टम धीमे थे, रोबोट जैसे लगते थे, और केवल बहुत सीमित मानव इनपुट की अनुमति देते थे। संभावना है कि आपने खुद इस अनुभव का सामना किया हो, फोन में जोर से 'हाँ' चिल्लाकर जवाब देने के लिए। इस खराब अनुभव ने अधिकांश उपयोगकर्ताओं को 'सिस्टम को हराने' का प्रयास करने के लिए प्रेरित किया ताकि वे एक लाइव मानव एजेंट के साथ बातचीत कर सकें।

हालांकि, इन फोन ट्रीज़ का एक फायदा था — वे सीमित थे। बातचीत केवल कुछ ही रास्ते ले सकती थी, और डेवलपर्स आसानी से अवांछित इनपुट को नजरअंदाज करने के लिए गार्डरेल्स लागू कर सकते थे। यह बाधा LLMs के फायदे और नुकसान को रेखांकित करती है: वे फोन ट्रीज़ की सीमित प्रकृति से बहुत आगे बढ़ते हैं, लेकिन वे अप्रत्याशित भी होते हैं, जिससे कई समस्याएं उत्पन्न हो सकती हैं — जैसे असंभव वादे करना, ग्राहकों से नाराज़ होना, या संवेदनशील डेटा का उल्लंघन करना।

डिफ़ॉल्ट अंतराल

यदि LLMs को मूल रूप से मनुष्यों के लिए डिज़ाइन की गई हैंडबुक पर प्रशिक्षित किया जाता है, तो वे कुछ मुख्य अंतरालों के कारण औसत दर्जे की सफलता प्राप्त करेंगे। इन अंतरालों को समझना आपको उन्हें संबोधित करने के लिए प्रॉम्प्ट डिज़ाइन करने में मदद करेगा:

टोन का अंतर

LLMs को रिइनफोर्समेंट लर्निंग के माध्यम से प्रशिक्षित किया जाता है, जहां मानव प्रतिक्रिया LLMs को संरचित प्रतिक्रिया लौटाने के लिए प्रेरित करती है। विशेष रूप से, LLM प्रतिक्रियाएं अक्सर विस्तृत होती हैं और बुलेट्स, कॉल-आउट ब्लॉक्स, और हेडलाइंस से भरी होती हैं।

हालांकि, कन्वर्सेशनल AI के संदर्भ में, LLMs को मौखिक बातचीत की संक्षिप्त और सपाट प्रकृति का अनुकरण करने की आवश्यकता होती है।

धारणा का अंतर

LLMs किसी भी अज्ञात को पूछने के बजाय अनुमानित ज्ञान से भरने की प्रवृत्ति रखते हैं। इससे वे गलत धारणाएँ बना सकते हैं जो उपयोगकर्ताओं को गुमराह कर सकती हैं — या महंगी गलतियाँ कर सकती हैं (जैसे, वादे किए गए रिफंड)। बाद में, हम देखेंगे कि हम LLMs को गलत वादे करने और अवांछित कार्यों को निष्पादित करने से रोकने के लिए ज्ञान आधार और गार्डरेल्स का उपयोग कैसे कर सकते हैं।

विलंबता

LLMs प्रोग्रामेटिक रूप से फ़ंक्शन कॉल्स को इनवोक कर सकते हैं, मानवों की ओर से डेटा एकत्र और लिख सकते हैं। जबकि यह आमतौर पर LLMs का सबसे बड़ा लाभ होता है, इसका मतलब यह भी है कि पिछले प्रशिक्षण निर्देश, जो कॉल एजेंटों को कार्य करते समय 'समय खरीदने' की अनुमति देते थे, अब आवश्यक नहीं हैं। हालांकि, फ़ंक्शन कॉल्स भी तात्कालिक नहीं होते, जिसका अर्थ है कि LLMs को उपयोगकर्ता को सही समय पर चेतावनी देनी चाहिए जब भी देरी की उम्मीद हो (जैसे, 'मुझे आपके मामले की जांच करने के लिए एक पल दें')।

कॉन्फ़िगरेशन

व्यक्तित्व

LLMs टोन को एक शैली से मेल खाने के लिए बढ़ाने में काफी सफल होते हैं। एक LLM को मित्रवत, हास्यपूर्ण, संक्षिप्त, औपचारिक, या शैलियों के संयोजन में ध्वनि करने के लिए कॉन्फ़िगर किया जा सकता है। यह एक महत्वपूर्ण इनपुट है जब LLM को प्रॉम्प्ट किया जाता है।

उदाहरण के लिए, एक ग्राहक सेवा कन्वर्सेशनल AI एप्लिकेशन के डेवलपर्स जो नाराज़ एयरलाइन ग्राहकों का समर्थन करने के लिए डिज़ाइन किया गया है, एक प्रॉम्प्ट का उपयोग कर सकते हैं जैसे:

आप एक मित्रवत ग्राहक सेवा एजेंट हैं जो संक्षिप्त, स्पष्ट, सहानुभूतिपूर्ण वाक्यों में बात करते हैं।
American
Whispering
Mysterious
Gaming
Lively
Irish
Soothing
Audiobook

Nicole

प्रारूप

LLMs को यह स्पष्ट निर्देश प्राप्त करने की आवश्यकता होती है कि कैसे प्रतिक्रिया दें। यह सुनिश्चित करने के लिए कि वे अतिरिक्त पैडर टेक्स्ट शामिल न करें, LLMs को एक संरचना प्रदान की जानी चाहिए जो उपयोगकर्ता को दी जाने वाली प्रतिक्रिया को समाहित करती है।

उदाहरण के लिए, LLMs को प्रॉम्प्ट किया जा सकता है:

केवल उस स्ट्रिंग के साथ प्रतिक्रिया दें जिसे उपयोगकर्ता को जोर से पढ़ा जाना चाहिए

यह संरचना LLM को एक प्रतिक्रिया प्रदान करने के लिए प्रोत्साहित करती है जिसे जोर से पढ़ा जाना है।

हालांकि, LLMs कभी-कभी उन चीजों पर अटक सकते हैं जो लिखित सामग्री से स्वाभाविक रूप से भिन्न नहीं होती हैं। एक सामान्य उदाहरण संख्याएँ हैं — एक LLM एक ज़िपकोड को 10023 की तरह प्रिंट कर सकता है, जिससे टेक्स्ट टू स्पीच मॉडल कहेगा, 'दस हजार और तेईस।' इसके बजाय, LLM को स्पष्ट रूप से संकेत दिया जाना चाहिए कि संख्याओं को व्यक्तिगत रूप से कहा जाए, यह संकेत देते हुए कि संख्याएँ क्या दर्शाती हैं, जैसे, 'ज़िपकोड एक शून्य शून्य दो तीन है।'

तापमान

तापमान कन्वर्सेशनल AI के लिए LLMs को कॉन्फ़िगर करते समय एक महत्वपूर्ण पैरामीटर है। कम तापमान अधिक केंद्रित, निर्धारक प्रतिक्रियाएँ उत्पन्न करता है जो कार्य-उन्मुख वार्तालापों के लिए आदर्श होती हैं, जबकि उच्च तापमान अधिक रचनात्मक, विविध प्रतिक्रियाएँ उत्पन्न करता है।

एक कम तापमान उन कन्वर्सेशनल AI सिस्टम के लिए आदर्श है जो सुसंगत प्रतिक्रियाएँ पसंद कर सकते हैं (जैसे, रिफंड के लिए ग्राहक सेवा लाइन)। इस बीच, उन सिस्टम के लिए जो ग्राहकों को अधिक आकर्षक और वास्तविक अनुभव प्रदान करना चाहते हैं (जैसे, एक डिजिटल कोच), एक उच्च तापमान बेहतर है:

कम तापमान: ElevenLabs सपोर्ट में आपका स्वागत है। मैं आपकी कैसे मदद कर सकता हूँ?
उच्च तापमान: हे हे! आप ElevenLabs सपोर्ट पर पहुँच गए हैं—आपकी तकनीकी समस्याओं को हल करने के लिए तैयार! आपके मन में क्या है?

ज्ञान आधार

उन कन्वर्सेशनल AI सिस्टम के लिए जो बड़े ज्ञान भंडारों का उपयोग करते हैं, एक ज्ञान आधार का उपयोग प्रॉम्प्ट की लंबाई को कम करने के लिए किया जाना चाहिए। उत्पादन में, यह आमतौर पर एक वेक्टर डेटाबेस (जैसे, Pinecone या Elasticsearch) या LLM प्रदाता के सीधे ज्ञान स्टोर के माध्यम से पूरा किया जाता है।

सामान्य रूप से, ज्ञान आधार LLM प्रतिक्रियाओं को तथ्यात्मक, अनुमोदित जानकारी में आधार बनाने के लिए आवश्यक होते हैं। जब एक कन्वर्सेशनल AI सिस्टम का निर्माण किया जाता है, तो आपको LLM को एक व्यापक ज्ञान आधार प्रदान करना चाहिए जिसमें उत्पादों, सेवाओं, नीतियों, और प्रक्रियाओं के बारे में सटीक, अद्यतन जानकारी हो। यह LLM को कल्पना करने या जानकारी बनाने से रोकता है जबकि वार्तालापों में सुसंगत और विश्वसनीय प्रतिक्रियाओं को प्रोत्साहित करता है।

प्रक्रिया

क्योंकि LLMs अक्सर उपयोगकर्ता की ओर से कार्यों को इनवोक करते हैं, उन्हें यह भी जानना होता है कि कौन से इनपुट स्पष्ट रूप से आवश्यक हैं। उदाहरण के लिए, यदि LLM का काम उपयोगकर्ता को हेयरकट अपॉइंटमेंट शेड्यूल करने में मदद करना है, तो उन्हें यह सुनिश्चित करना होगा कि उनके पास है:

  1. उपयोगकर्ता का नाम
  2. वांछित तिथि और समय
  3. उपयोगकर्ता का पता
  4. उपयोगकर्ता की सेवा प्राथमिकता

एक सरल कार्यान्वयन के परिणामस्वरूप LLM एक ही बार में सभी जानकारी के लिए पूछ सकता है। यह पाठ के रूप में ठीक है, लेकिन एक वार्तालाप में, यह भारी हो सकता है:

सपोर्ट एजेंट: क्या आप कृपया मुझे अपना नाम, अपना पता, जब आप अपनी सेवा चाहते हैं, और आप कौन सी सेवा चाहते हैं, प्रदान कर सकते हैं?
ग्राहक: मेरा नाम मैथ्यू है और बुधवार दोपहर का कोई भी समय ठीक है। आपने और क्या पूछा था?

क्योंकि जानकारी आमतौर पर वार्तालाप के माध्यम से धीरे-धीरे एकत्र की जाती है, LLMs को इस जानकारी को टुकड़ों में प्राप्त करने के लिए प्रोत्साहित किया जाना चाहिए। परिणामस्वरूप एक अधिक वार्तालापपूर्ण अनुभव होता है:

सपोर्ट एजेंट: क्या आप कृपया मुझे अपना नाम बता सकते हैं?
ग्राहक: मेरा नाम मैथ्यू प्रेगसेन है।
सपोर्ट एजेंट: धन्यवाद मैथ्यू। आप कब अपॉइंटमेंट लेना चाहेंगे?
ग्राहक: बुधवार दोपहर का कोई भी समय ठीक है।
सपोर्ट एजेंट: बढ़िया। अब मैं आपका पता प्राप्त कर सकता हूँ ताकि निकटतम स्थान ढूंढ सकूँ?
ग्राहक: 555 वेस्ट मेन स्ट्रीट
सपोर्ट एजेंट: उत्तम। अब आप कौन सी सेवा चाहते हैं?
ग्राहक: मैं एक हेयरकट चाहता हूँ और अगर आप मेरी दाढ़ी भी कर सकें तो बहुत अच्छा होगा!

गार्डरेल्स

अनुमतियाँ

जब वितरित सिस्टम का निर्माण किया जाता है, तो आप यह मानते हैं कि आपका सर्वर किसी बिंदु पर क्रैश हो जाएगा। इसी तरह, जब AI सिस्टम का निर्माण किया जाता है, तो आपको यह मानना चाहिए कि आपका LLM किसी बिंदु पर गलती करेगा। उस गलती के प्रभाव को कम करने के लिए, आपको इन सिस्टम्स को काम के लिए आवश्यक न्यूनतम अनुमतियाँ देनी चाहिए। नीचे कुछ उदाहरण दिए गए हैं कि आप यह कैसे कर सकते हैं:

  • पढ़ने/लिखने की अनुमतियाँ सही ढंग से सेट करें: यदि LLM को केवल डेटा स्रोत से जानकारी पढ़ने की आवश्यकता है, तो सुनिश्चित करें कि उसे केवल पढ़ने के लिए एक एंडपॉइंट दिया गया है।
  • API एंडपॉइंट्स तक पहुंच को सीमित करें: यदि LLM को केवल कुछ एंडपॉइंट्स तक पहुंच की आवश्यकता है, तो सुनिश्चित करें कि वह किसी अन्य तक नहीं पहुंच सकता।
  • मानव-इन-द-लूप एस्केलेशन: यदि कोई उच्च-जोखिम वाला कार्य किया जाना है, तो एक मानव-इन-द-लूप वर्कफ़्लो पर विचार करें जो कार्य को निष्पादित करने से पहले 'प्रबंधक की स्वीकृति' की आवश्यकता होती है।

मान्यता और सत्यापन

जब वार्तालाप AI वॉइस एजेंट सिस्टम बनाए जाते हैं जो टूल उपयोग के माध्यम से कार्य करते हैं, तो यह सुनिश्चित करने के लिए एक मान्यता और सत्यापन प्रक्रिया बनाना सहायक होता है कि आप उपयोगकर्ताओं से सही जानकारी एकत्र कर रहे हैं। आज, जब आप एक मानव एजेंट से बात करते हैं, तो वे किसी भी महत्वपूर्ण जानकारी को दोहराते हैं जो आप उन्हें देते हैं ताकि यह सुनिश्चित हो सके कि उन्होंने इसे सही सुना और ग्राहक ने गलत नहीं कहा। LLMs इसी तरह की त्रुटि-जांच से लाभ उठा सकते हैं:

सपोर्ट एजेंट: बढ़िया। अब मैं आपका पता प्राप्त कर सकता हूँ ताकि निकटतम स्थान ढूंढ सकूँ?
ग्राहक: 555 वेस्ट मेन स्ट्रीट
सपोर्ट एजेंट: मैंने 555 वेस्ट मेन स्ट्रीट सुना। क्या मैंने कुछ छोड़ा?

सत्यापन के लिए, ग्राहक से प्राप्त किसी भी जानकारी की उस जानकारी की सामान्य संरचना के खिलाफ जाँच की जानी चाहिए। क्या फोन नंबर में सही संख्या में अंक हैं? क्या ग्राहक द्वारा दी गई उम्र एक उचित सीमा के भीतर है? क्या ग्राहक ने एक मान्य पता प्रदान किया?

सपोर्ट एजेंट: आपके लिए एक अच्छा कॉलबैक नंबर क्या होगा?
ग्राहक: 317-798-97289
सपोर्ट एजेंट: मुझे लगता है कि मैंने आपको गलत सुना। मैंने 11 नंबर सुने। क्या आप इसे फिर से दोहराने का कष्ट करेंगे?

आपके उपयोग के मामले के आधार पर, आप प्राप्त सभी जानकारी को सत्यापित कर सकते हैं या केवल उस जानकारी को जो सत्यापन में विफल रही। इसके अलावा, आप यह तय कर सकते हैं कि प्रत्येक जानकारी के टुकड़े को आते ही सत्यापित करें या अंत में सब कुछ सत्यापित करें।

एक समापन विचार

सफलतापूर्वक एक कन्वर्सेशनल AI एजेंट सिस्टम को प्रॉम्प्ट करना सही कॉन्फ़िगरेशन और गार्डरेल्स को संतुलित करने में शामिल होता है ताकि एक ऐसा अनुभव उत्पन्न हो सके जो एक मानव से बात करने जैसा हो लेकिन अधिक दक्षता के साथ। प्रक्रिया उतनी सरल नहीं है जितनी पुराने प्रशिक्षण सामग्री का उपयोग करके LLM को प्रॉम्प्ट करना; इसके बजाय, LLMs ऐसे उपकरण हैं जिन्हें पूर्वानुमानित, प्रभावी परिणाम उत्पन्न करने के लिए विशेष संरचना और रणनीति की आवश्यकता होती है।

ElevenLabs टीम के लेखों को देखें

ElevenLabs

उच्चतम गुणवत्ता वाले AI ऑडियो के साथ बनाएं

मुफ़्त में आज़माएं

क्या आपके पास पहले से अकाउंट है? लॉग इन करें