
ElevenLabs 2024 के चुनावों के लिए कैसे तैयारी कर रहा है
- श्रेणी
- सुरक्षा
- तारीख
AI वॉइस एजेंट्स अब कस्टमर सर्विस, एंटरटेनमेंट और एंटरप्राइज ऐप्लिकेशन्स में तेजी से इस्तेमाल हो रहे हैं। ऐसे में जिम्मेदार इस्तेमाल के लिए साफ़-सुथरे सुरक्षा उपाय ज़रूरी हैं।
हमारा सुरक्षा फ्रेमवर्क एक लेयर वाला तरीका अपनाता है जिसमें शामिल हैं प्री-प्रोडक्शन सुरक्षा, बातचीत के दौरान लागू होने वाले नियम, और लगातार मॉनिटरिंग। ये सभी मिलकर AI के जिम्मेदार व्यवहार, यूज़र की जागरूकता और सुरक्षा नियमों को पूरे वॉइस एजेंट लाइफसाइकल में लागू करने में मदद करते हैं।
नोट: यह फ्रेमवर्क MCP-सक्षम एजेंट्स के लिए प्राइवेसी और सिक्योरिटी सुरक्षा को शामिल नहीं करता।
यूज़र्स को हमेशा बातचीत की शुरुआत में बताया जाना चाहिए कि वे AI वॉइस एजेंट से बात कर रहे हैं।
सर्वश्रेष्ठ तरीका: बातचीत की शुरुआत में ही AI के इस्तेमाल की जानकारी दें।
सुरक्षा नियम AI वॉइस एजेंट के व्यवहार की सीमाएं तय करते हैं। ये आपके आंतरिक सुरक्षा नियमों के अनुसार होने चाहिए और इनमें शामिल हों:
इम्प्लीमेंटेशन टिप: सिस्टम प्रॉम्प्ट में सभी सुरक्षा नियम जोड़ें।
देखें: प्रॉम्प्टिंग गाइड
एजेंट्स को निर्देश दें कि अगर सुरक्षा नियम बार-बार चुनौती दी जाएं तो वे सुरक्षित तरीके से बातचीत से बाहर निकलें।
उदाहरण प्रतिक्रिया:
इसके बाद एजेंट कॉल समाप्त करें या एजेंट को ट्रांसफर करें टूल का इस्तेमाल करता है। इससे सीमाएं बिना बहस या एस्केलेशन के लागू रहती हैं।
एजेंट स्तर पर सामान्य इवैल्यूएशन क्राइटेरिया से आप देख सकते हैं कि आपका AI वॉइस एजेंट सुरक्षित, नैतिक और सिस्टम प्रॉम्प्ट के नियमों के अनुसार व्यवहार कर रहा है या नहीं। LLM-as-a-judge तरीके से हर कॉल ऑटोमैटिकली रिव्यू होती है और मुख्य व्यवहार अपेक्षाओं के आधार पर सफल या असफल मानी जाती है। इससे एजेंट टेस्टिंग के दौरान लगातार मॉनिटरिंग होती रहती है, और प्रोडक्शन में आने के बाद यह और भी जरूरी हो जाता है।
सुरक्षा इवैल्यूएशन आपके सिस्टम प्रॉम्प्ट के नियमों से जुड़े मुख्य लक्ष्यों पर फोकस करता है, जैसे:
ये क्राइटेरिया सभी कॉल्स पर एक जैसे लागू होते हैं ताकि व्यवहार में निरंतरता बनी रहे। सिस्टम हर बातचीत को मॉनिटर करता है, गड़बड़ी होने पर उसे फ्लैग करता है और हर क्लासिफिकेशन का कारण बताता है। नतीजे होम डैशबोर्ड में दिखते हैं, जिससे टीमें सुरक्षा प्रदर्शन ट्रैक कर सकती हैं और समय के साथ पैटर्न या बार-बार होने वाली समस्याएं पहचान सकती हैं।
देखें: सक्सेस इवैल्यूएशन डॉक्युमेंट्स
लाइव जाने से पहले, अपने AI वॉइस एजेंट के साथ बातचीत की सिमुलेशन करें ताकि उसके व्यवहार को सुरक्षा, किरदार और कंप्लायंस अपेक्षाओं के हिसाब से टेस्ट किया जा सके। रेड टीमिंग में ऐसे सिमुलेशन केस बनाए जाते हैं जो जानबूझकर एजेंट के सुरक्षा नियमों को परखते हैं, जिससे एज केस, कमजोरियां और अनचाहे आउटपुट सामने आते हैं। हर सिमुलेशन एक नकली यूज़र प्रॉम्प्ट और खास इवैल्यूएशन क्राइटेरिया के साथ बनाई जाती है। मकसद है देखना कि एजेंट हर सिचुएशन में कैसे जवाब देता है और क्या वह आपके तय किए गए सिस्टम प्रॉम्प्ट का पालन करता है, कस्टम इवैल्यूएशन क्राइटेरिया और LLM-as-a-judge के साथ।
इन टेस्ट्स को आप ElevenLabs के कन्वर्सेशन सिमुलेशन SDK से सेट कर सकते हैं, जिसमें यूज़र-एजेंट इंटरैक्शन को कस्टम इवैल्यूएशन प्रॉम्प्ट्स के साथ स्क्रिप्ट किया जाता है। इससे एजेंट्स प्रोडक्शन के लिए तैयार रहते हैं, आपके आंतरिक सुरक्षा मानकों के अनुसार होते हैं, और सभी एजेंट वर्ज़न में सुरक्षा बनी रहती है।
उदाहरण सिमुलेशन:
रेड टीमिंग सिमुलेशन को अलग-अलग एजेंट्स, एजेंट वर्ज़न और यूज़ केस में स्टैंडर्डाइज और री-यूज़ किया जा सकता है, जिससे बड़े स्तर पर सुरक्षा नियमों का पालन सुनिश्चित होता है।
देखें: टेस्टिंग के सर्वोत्तम तरीके
ConvAI के लिए मैसेज-लेवल लाइव मॉडरेशन वर्कस्पेस स्तर पर सभी एजेंट्स के लिए चालू किया जा सकता है और कुछ मामलों में यह डिफॉल्ट रूप से ऑन रहता है। जब यह ऑन होता है, तो अगर सिस्टम देखता है कि एजेंट कुछ निषिद्ध बोलने वाला है (टेक्स्ट-बेस्ड डिटेक्शन), तो कॉल अपने आप कट जाती है। अभी सिर्फ नाबालिगों से जुड़े यौन कंटेंट (SCIM) को ब्लॉक किया जाता है, लेकिन क्लाइंट की जरूरत के हिसाब से मॉडरेशन का दायरा बढ़ाया जा सकता है। इस फीचर से लेटेंसी बहुत कम बढ़ती है: p50: 0ms, p90: 250ms, p95: 450ms।
हम क्लाइंट्स के साथ मिलकर सही मॉडरेशन दायरा तय कर सकते हैं और लगातार सुरक्षा ट्यूनिंग के लिए एनालिटिक्स भी दे सकते हैं। जैसे: end_call_reason
प्रोडक्शन से पहले सुरक्षा जांचने के लिए हम चरणबद्ध तरीका अपनाने की सलाह देते हैं:
यह स्ट्रक्चर्ड प्रोसेस सुनिश्चित करता है कि एजेंट्स को टेस्ट, ट्यून और साफ मानकों के अनुसार वेरिफाई किया गया है, इससे पहले कि वे एंड यूज़र्स तक पहुंचें। हर स्टेज पर क्वालिटी गेट्स (जैसे, न्यूनतम कॉल सक्सेस रेट) तय करना अच्छा रहता है।
एक सुरक्षित AI वॉइस एजेंट के लिए लाइफसाइकल के हर स्टेज पर सुरक्षा उपाय ज़रूरी हैं:
इस लेयर वाले फ्रेमवर्क को लागू करके, संस्थाएं जिम्मेदार व्यवहार सुनिश्चित कर सकती हैं, कंप्लायंस बनाए रख सकती हैं और यूज़र्स का भरोसा जीत सकती हैं।



