.webp&w=3840&q=95)
Top 5 Speechify alternatives for reading text aloud
Explore the best alternatives to Speechify.
कन्वर्सेशनल AI सिस्टम में बड़े भाषा मॉडल को सही तरीके से प्रॉम्प्ट करना बहुत महत्वपूर्ण है।
आज, LLM कन्वर्सेशनल AI सिस्टम का दिल बन गया है। विशेष रूप से, LLMs सक्षम बनाते हैं
डेवलपर्स एक सामान्य गलती करते हैं जब वे कन्वर्सेशनल AI के लिए LLMs को प्रॉम्प्ट करते हैं: वही प्लेबुक का पुन: उपयोग करना जो मानव कर्मचारियों को प्रशिक्षित करने के लिए उपयोग की जाती थी। यह रणनीति, हालांकि सरल लगती है, शायद ही कभी फलदायी होती है। LLMs सामान्य मनुष्यों से अलग धारणाएं बनाते हैं, और उनका डिफ़ॉल्ट टोन और स्कोप मौखिक इंटरैक्शन के लिए अनुकूल नहीं होता।
आज, हम जानेंगे कि सफल कन्वर्सेशनल AI सिस्टम बनाने के लिए LLMs को कैसे प्रॉम्प्ट किया जाए। आप इस विषय पर अधिक व्यापक और तकनीकी गाइड भी पढ़ सकते हैं
LLMs से पहले, कन्वर्सेशनल AI सिस्टम बड़े लॉजिक ट्रीज़ का उपयोग करते थे, जिनके माध्यम से अनुरोध मौखिक इनपुट के आधार पर ट्रायज होते थे। यह सेटअप ग्राहक सेवा नंबरों (जैसे, एयरलाइन हॉटलाइन) और भुगतान सिस्टम (जैसे, क्रेडिट कार्ड फोन सेवाएं) में लोकप्रिय था।
ये पुराने सिस्टम धीमे थे, रोबोट जैसे लगते थे, और केवल बहुत सीमित मानव इनपुट की अनुमति देते थे। संभावना है कि आपने खुद इस अनुभव का सामना किया हो, फोन में जोर से 'हाँ' चिल्लाकर जवाब देने के लिए। इस खराब अनुभव ने अधिकांश यूज़र्स को 'सिस्टम को हराने' की कोशिश करने के लिए प्रेरित किया ताकि वे एक लाइव मानव एजेंट के साथ बातचीत कर सकें।
हालांकि, इन फोन ट्रीज़ का एक फायदा था—वे सीमित थे। बातचीत केवल कुछ ही रास्ते ले सकती थी, और डेवलपर्स आसानी से अवांछित इनपुट को नजरअंदाज करने के लिए गार्डरेल्स लागू कर सकते थे। यह बाधा LLMs के फायदे और नुकसान को रेखांकित करती है: वे फोन ट्रीज़ की सीमित प्रकृति से काफी आगे बढ़ते हैं, लेकिन वे अप्रत्याशित भी होते हैं, जिससे कई समस्याएं उत्पन्न हो सकती हैं—जैसे असंभव वादे करना, ग्राहकों से नाराज़ होना, या संवेदनशील डेटा का उल्लंघन करना।
यदि LLMs को मूल रूप से मनुष्यों के लिए डिज़ाइन की गई हैंडबुक पर प्रशिक्षित किया जाता है, तो वे कुछ मुख्य अंतरालों के कारण औसत दर्जे की सफलता प्राप्त करेंगे। इन अंतरालों को समझने से आपको उन्हें संबोधित करने के लिए प्रॉम्प्ट डिज़ाइन करने में मदद मिलेगी:
LLMs को रिइन्फोर्समेंट लर्निंग के माध्यम से प्रशिक्षित किया जाता है, जहां मानव प्रतिक्रिया LLMs को संरचित प्रतिक्रिया लौटाने के लिए प्रेरित करती है। विशेष रूप से, LLM प्रतिक्रियाएं अक्सर विस्तृत होती हैं और बुलेट्स, कॉल-आउट ब्लॉक्स, और हेडलाइन्स से भरी होती हैं।
हालांकि, कन्वर्सेशनल AI के संदर्भ में, LLMs को मौखिक इंटरैक्शन की संक्षिप्त और सपाट प्रकृति का अनुकरण करने की आवश्यकता होती है।
LLMs किसी भी अज्ञात को पूछने के बजाय अनुमानित ज्ञान से भरने की प्रवृत्ति रखते हैं। इससे वे गलत धारणाएं बना सकते हैं जो यूज़र्स को गुमराह कर सकती हैं—या महंगी गलतियों की ओर ले जा सकती हैं (जैसे, वादा किए गए रिफंड)। बाद में, हम देखेंगे कि कैसे हम एक नॉलेज बेस और गार्डरेल्स का उपयोग करके LLMs को गलत वादे करने और अवांछित कार्यों को निष्पादित करने से रोक सकते हैं।
LLMs प्रोग्रामेटिक रूप से फ़ंक्शन कॉल्स को इनवोक कर सकते हैं, मानवों की ओर से डेटा एकत्रित और लिख सकते हैं। जबकि यह आमतौर पर LLMs का सबसे बड़ा लाभ होता है, इसका मतलब यह भी है कि पिछले प्रशिक्षण निर्देश, जो कॉल एजेंट्स को कार्य करते समय 'समय खरीदने' की अनुमति देते थे, अब आवश्यक नहीं हैं। हालांकि, फ़ंक्शन कॉल्स भी तात्कालिक नहीं होते, जिसका मतलब है कि LLMs को सही ढंग से यूज़र को चेतावनी देनी चाहिए जब भी देरी की उम्मीद हो (जैसे, 'मुझे आपके केस की जांच करने के लिए एक पल दें')।
LLMs टोन को एक शैली से मेल खाने के लिए बढ़ाने में काफी सफल होते हैं। एक LLM को मित्रवत, हास्यपूर्ण, संक्षिप्त, औपचारिक, या शैलियों के संयोजन में ध्वनि करने के लिए कॉन्फ़िगर किया जा सकता है। यह LLM को प्रॉम्प्ट करते समय एक महत्वपूर्ण इनपुट होता है।
उदाहरण के लिए, एक ग्राहक सेवा कन्वर्सेशनल AI एप्लिकेशन के डेवलपर्स जो नाराज़ एयरलाइन ग्राहकों का समर्थन करने के लिए डिज़ाइन किया गया है, एक प्रॉम्प्ट का उपयोग कर सकते हैं जैसे:
आप एक मित्रवत ग्राहक सेवा एजेंट हैं जो संक्षिप्त, स्पष्ट, सहानुभूतिपूर्ण वाक्यों में बात करते हैं।
LLMs को यह स्पष्ट निर्देश प्राप्त करने की आवश्यकता होती है कि कैसे प्रतिक्रिया दें। यह सुनिश्चित करने के लिए कि वे अतिरिक्त पैडर टेक्स्ट शामिल न करें, LLMs को एक संरचना प्रदान की जानी चाहिए जो यूज़र को दी जाने वाली प्रतिक्रिया को संलग्न करती है।
उदाहरण के लिए, LLMs को प्रॉम्प्ट किया जा सकता है:
केवल उस स्ट्रिंग के साथ प्रतिक्रिया दें जिसे यूज़र को जोर से पढ़ा जाना चाहिए
यह संरचना LLM को एक प्रतिक्रिया प्रदान करने के लिए प्रोत्साहित करती है जिसे जोर से पढ़ा जाना है।
हालांकि, LLMs कभी-कभी उन चीजों पर ठोकर खा सकते हैं जो लिखित सामग्री से स्वाभाविक रूप से भिन्न नहीं होती हैं। एक सामान्य उदाहरण है संख्याएं — एक LLM एक ज़िपकोड को 10023 की तरह प्रिंट कर सकता है, जो
कन्वर्सेशनल AI के लिए LLMs को कॉन्फ़िगर करते समय तापमान एक महत्वपूर्ण पैरामीटर है। कम तापमान अधिक केंद्रित, निर्धारक प्रतिक्रियाएँ उत्पन्न करता है जो कार्य-उन्मुख वार्तालापों के लिए आदर्श होती हैं, जबकि उच्च तापमान अधिक रचनात्मक, विविध प्रतिक्रियाएँ उत्पन्न करता है।
कम तापमान उन कन्वर्सेशनल AI सिस्टम के लिए आदर्श है जो लगातार प्रतिक्रियाएँ पसंद कर सकते हैं (जैसे, रिफंड के लिए ग्राहक सेवा लाइन)। वहीं, उन सिस्टम्स के लिए जो ग्राहकों को अधिक आकर्षक और यथार्थवादी अनुभव प्रदान करना चाहते हैं (जैसे, एक डिजिटल कोच), उच्च तापमान बेहतर है:
कम तापमान: ElevenLabs सपोर्ट में आपका स्वागत है। मैं आपकी कैसे मदद कर सकता हूँ?उच्च तापमान: हे हे! आप ElevenLabs सपोर्ट पर आ गए हैं—आपकी तकनीकी समस्याओं को हल करने के लिए तैयार! आपके मन में क्या है?
उन कन्वर्सेशनल AI सिस्टम्स के लिए जो बड़े ज्ञान भंडारों का उपयोग करते हैं, एक ज्ञान आधार का उपयोग प्रॉम्प्ट की लंबाई को कम करने के लिए किया जाना चाहिए। उत्पादन में, यह आमतौर पर एक वेक्टर डेटाबेस (जैसे, Pinecone या Elasticsearch) या LLM प्रदाता के सीधे ज्ञान स्टोर के माध्यम से पूरा किया जाता है।
सामान्य तौर पर, ज्ञान आधार LLM प्रतिक्रियाओं को तथ्यात्मक, अनुमोदित जानकारी में आधार बनाने के लिए आवश्यक होते हैं। जब एक कन्वर्सेशनल AI सिस्टम बना रहे हों, तो आपको LLM को एक व्यापक ज्ञान आधार प्रदान करना चाहिए जिसमें उत्पादों, सेवाओं, नीतियों, और प्रक्रियाओं के बारे में सटीक, अद्यतन जानकारी हो। यह LLM को कल्पना करने या जानकारी बनाने से रोकता है जबकि वार्तालापों में लगातार और विश्वसनीय प्रतिक्रियाओं को प्रोत्साहित करता है।
क्योंकि LLMs अक्सर यूज़र की ओर से कार्यों को इनवोक करते हैं, उन्हें यह भी जानना होता है कि कौन से इनपुट स्पष्ट रूप से आवश्यक हैं। उदाहरण के लिए, यदि LLM का काम यूज़र को हेयरकट अपॉइंटमेंट शेड्यूल करने में मदद करना है, तो उन्हें यह सुनिश्चित करना होगा कि उनके पास है:
एक सरल कार्यान्वयन के परिणामस्वरूप LLM एक ही बार में सभी जानकारी के लिए पूछ सकता है। यह पाठ के रूप में ठीक है, लेकिन एक बातचीत में, यह भारी हो सकता है:
सपोर्ट एजेंट: क्या आप कृपया मुझे अपना नाम, अपना पता, जब आप अपनी सेवा चाहते हैं, और कौन सी सेवा आप चाहते हैं, बता सकते हैं?
क्योंकि जानकारी आमतौर पर बातचीत के माध्यम से क्रमिक रूप से एकत्र की जाती है, LLMs को इस जानकारी को टुकड़ों में प्राप्त करने के लिए प्रोत्साहित किया जाना चाहिए। परिणामस्वरूप एक अधिक संवादात्मक अनुभव होता है:
सपोर्ट एजेंट: क्या आप कृपया मुझे अपना नाम बता सकते हैं?
जब वितरित सिस्टम्स का निर्माण करते हैं, तो आप यह मानते हैं कि आपका सर्वर किसी बिंदु पर क्रैश हो जाएगा। इसी तरह, जब AI सिस्टम्स का निर्माण करते हैं, तो आपको यह मानना चाहिए कि आपका LLM किसी बिंदु पर गलती करेगा। उस गलती के प्रभाव को कम करने के लिए, आपको इन सिस्टम्स को काम के लिए आवश्यक न्यूनतम अनुमतियाँ देनी चाहिए। नीचे कुछ उदाहरण दिए गए हैं कि आप यह कैसे कर सकते हैं:
जब टूल उपयोग के माध्यम से कार्य करने वाले कन्वर्सेशनल AI सिस्टम्स का निर्माण करते हैं, तो यह सुनिश्चित करने के लिए एक मान्यता-और-सत्यापन प्रक्रिया बनाना सहायक होता है कि आप यूज़र्स से सही जानकारी एकत्र कर रहे हैं। आज, जब आप एक मानव एजेंट से बात करते हैं, तो वे किसी भी महत्वपूर्ण जानकारी को दोहराते हैं जो आप उन्हें देते हैं ताकि यह सुनिश्चित हो सके कि उन्होंने इसे सही सुना और ग्राहक ने गलत नहीं कहा। LLMs इसी तरह की त्रुटि-जाँच से लाभ उठा सकते हैं:
सपोर्ट एजेंट: बढ़िया। अब क्या मैं आपका पता प्राप्त कर सकता हूँ ताकि निकटतम स्थान ढूंढ सकूं?
मान्यता के लिए, ग्राहक से प्राप्त किसी भी जानकारी की उस जानकारी की सामान्य संरचना के खिलाफ जाँच की जानी चाहिए। क्या फोन नंबर में सही संख्या में अंक हैं? क्या ग्राहक द्वारा दी गई उम्र एक उचित सीमा में आती है? क्या ग्राहक ने एक मान्य पता प्रदान किया?
सपोर्ट एजेंट: आपके लिए एक अच्छा कॉलबैक नंबर क्या होगा?
आपके उपयोग के मामले के आधार पर, आप प्राप्त सभी जानकारी को सत्यापित कर सकते हैं या केवल उस जानकारी को जो सत्यापन में विफल रही। इसके अलावा, आप यह तय कर सकते हैं कि प्रत्येक जानकारी के टुकड़े को उसके आने के साथ सत्यापित करें या अंत में सब कुछ सत्यापित करें।
कन्वर्सेशनल AI सिस्टम को सफलतापूर्वक प्रॉम्प्ट करना सही कॉन्फ़िगरेशन और गार्डरेल्स को संतुलित करने में शामिल है ताकि एक ऐसा अनुभव उत्पन्न हो सके जो मानव से बात करने जैसा हो लेकिन अधिक कुशलता के साथ। प्रक्रिया पुराने प्रशिक्षण सामग्री का उपयोग करके LLM को प्रॉम्प्ट करने जितनी सरल नहीं है; इसके बजाय, LLMs ऐसे उपकरण हैं जिन्हें पूर्वानुमानित, प्रभावी परिणाम उत्पन्न करने के लिए विशेष संरचना और रणनीति की आवश्यकता होती है।
Explore the best alternatives to Speechify.
Improved transcription from ElevenLabs' Scribe is driving material efficiency gains