हम अपनी प्रमुख ऑडियो AI टेक्नोलॉजी का सुरक्षित उपयोग सुनिश्चित करने के लिए प्रतिबद्ध हैं।
AI ऑडियो भाषा और कम्युनिकेशन की बाधाओं को पार करने में मदद करता है, जिससे एक ज्यादा जुड़ी हुई, क्रिएटिव और प्रोडक्टिव दुनिया बनती है। यह गलत इरादों वाले लोगों को भी आकर्षित कर सकता है। हमारा मिशन बेहतरीन ऑडियो AI प्रोडक्ट बनाना और तैनात करते हुए सुरक्षा में लगातार सुधार करना है ताकि इनके दुरुपयोग को रोका जा सके।
“ElevenLabs में AI सुरक्षा नवाचार से अलग नहीं है। यह सुनिश्चित करना कि हमारे सिस्टम सुरक्षित रूप से विकसित, तैनात और उपयोग किए गए हैं, ये हमारी रणनीति का अहम हिस्सा है। ”
Mati Staniszewski
Co-founder at ElevenLabs
हमारा मिशन किसी भी भाषा और किसी भी आवाज़ में कॉन्टेंट को सुलभ बनाना है।
हम दुनिया भर में लाखों यूज़र्स के साथ-साथ प्रमुख प्रकाशन और मीडिया कंपनियों के लिए एक भरोसेमंद AI ऑडियो प्रदाता हैं, जिनमें शामिल हैं:
ElevenLabs की सुरक्षा असल में
हम तीन सिद्धांतों पर चलते हैं ताकि जोखिम को नियंत्रण करते हुए AI ऑडियो दुनियाभर के लोगों के लिए फायदेमंद रहे: मॉडरेशन, जवाबदेही और उत्पति।
मॉडरेशन
हम अपनी टेक्नोलॉजी से तैयार किए गए कॉन्टेंट की सक्रिय रूप से निगरानी करते हैं।

ऑटोमैटिक मॉडरेशन। हमारे ऑटोमैटिक सिस्टम हमारी पॉलिसी का उल्लंघन करने वाले कॉन्टेंट को स्कैन करते हैं, इन्हें तुरंत ब्लॉक करते हैं या रिव्यू के लिए फ़्लैग करते हैं।
मानव मॉडरेशन। एक बढ़ती हुई मॉडरेटर टीम फ़्लैग किए गए कॉन्टेंट को रिव्यू करते है और यह सुनिश्चित करने में हमारी मदद करती है कि हमारी पॉलिसी का लगातार पालन हो।
अवांछित आवाज़ें (नो-गो वॉइस)। जबकि हमारी पॉलिसी नक़ल करने पर रोक लगाती हैं, हम एक अतिरिक्त सुरक्षा टूल का उपयोग करते हैं जिससे विशेष रूप से उच्च-जोखिम वाली आवाज़ों के साथ कॉन्टेंट बनाने को रोका जा सके।
वॉइसकैप्चा (voiceCAPTCHA)। हमने एक प्रोपराइटरी वॉइस वेरिफिकेशन तकनीक विकसित की है जो अवैध रूप से वॉइस क्लोनिंग टूल्स के उपयोग को कम करने के लिए बनाई गई है, जिससे यह सुनिश्चित हो सके कि हमारे हाई क्वालिटी वाले वॉइस क्लोनिंग टूल का यूज़र केवल अपनी आवाज़ को ही क्लोन कर सकते हैं।
प्रतिबंधित कॉन्टेंट और उपयोग पॉलिसी
हमारे टूल का उपयोग करते समय जो कॉन्टेंट और गतिविधियां अनुमति नहीं हैं, उनके प्रकारों के बारे में जानें।
जवाबदेही
हम मानते हैं कि दुरुपयोग करने वालों को सबक सिखाया जाना चाहिए।

ट्रेस करने की क्षमता। जब कोई गलत इरादे वाला हमारे टूल का दुरुपयोग करता है, तो हम जानना चाहते हैं कि वह कौन है। हमारे सिस्टम हमें जनरेट किए गए कॉन्टेंट को असली अकाउंट्स तक ट्रेस करने की अनुमति देते हैं और हमारे वॉइस क्लोनिंग टूल केवल उन यूज़र्स के लिए उपलब्ध हैं जिन्होंने बिलिंग विवरण के साथ अपने अकाउंट्स को वेरिफाई किया है।
प्रतिबंध। हम गलत इरादे वालों को बताना चाहते हैं कि उनके लिए हमारे प्लेटफ़ॉर्म पर कोई जगह नहीं है। हम उन यूज़र्स को स्थायी रूप से प्रतिबंधित करते हैं जो हमारी पॉलिसी का उल्लंघन करते हैं।
कानून प्रवर्तन के साथ पार्टनरशिप। हम अथॉरिटीज़ के साथ पूरा सहयोग करेंगे और ज़रूरत पड़ने पर गैरकानूनी कंटेंट या गतिविधियों से जुड़ी जानकारी रिपोर्ट या साझा करेंगे।
कॉन्टेंट की रिपोर्ट करें
यदि आपको ऐसा लगता है कि कॉन्टेंट हमारे टूल से बनाया गया है और यह चिंताजनक है, तो कृपया यहां रिपोर्ट करें।
उत्पति
हम मानते हैं कि आपको यह पता होना चाहिए कि कोई ऑडियो AI से जनरेट किया गया है या नहीं।

AI स्पीच क्लासिफायर। हमने एक बहुत अधिक सटीक डिटेक्शन टूल विकसित किया है जिसमें 99% सटीकता और 80% रिकॉल बनाए रखता है, यदि नमूने में कोई बदलाव नहीं किया गया है, और इससे कोई भी यह देख सकता है कि किसी ऑडियो फ़ाइल को हमारी टेक्नोलॉजी से जनरेट किया गया है या नहीं।
AI डिटेक्शन स्टैंडर्ड्स। हम मानते हैं कि मेटाडेटा, वॉटरमार्किंग और फिंगरप्रिंटिंग समाधान जैसे डाउनस्ट्रीम AI पहचान टूल महत्वपूर्ण हैं। हम C2PA के माध्यम से उत्पति के लिए इंडस्ट्री स्टैंडर्ड्स को अपनाने का समर्थन करते हैं।
सहयोग। हम AI कंपनियों, शैक्षणिक संस्थानों और पॉलिसी निर्माताओं को AI कॉन्टेंट डिटेक्शन के लिए इंडस्ट्री-वाइड तरीकों को विकसित करने में सहयोग के लिए आमंत्रित करते हैं। हम कॉन्टेंट ऑथेंटिसिटी इनिशिएटिव का हिस्सा हैं, और कॉन्टेंट डिस्ट्रीब्यूटर और सिविल सोसायटी के साथ मिलकर AI कॉन्टेंट पारदर्शिता स्थापित करने के लिए काम करते हैं। हम सरकारी AI सुरक्षा प्रयासों का भी समर्थन करते हैं और हम U.S. नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड टेक्नोलॉजी (NIST) के AI सेफ्टी इंस्टीट्यूट कंसोर्टियम के सदस्य हैं।
ElevenLabs AI स्पीच क्लासिफायर
हमारा AI स्पीच क्लासिफायर आपको यह पता लगाने देता है कि कोई ऑडियो क्लिप ElevenLabs का उपयोग करके बनाई गई है या नहीं।
कोएलिशन फॉर कॉन्टेंट उत्पति एंड ऑथेंटिसिटी
एक खुला तकनीकी मानक जो मीडिया की उत्पत्ति का पता लगाने की क्षमता प्रदान करता है।
कॉन्टेंट ऑथेंटिसिटी इनिशिएटिव
कॉन्टेंट प्रामाणिकता और उत्पति के लिए एक खुला उद्योग मानक अपनाने को बढ़ावा देना।
“AI-जनरेटेड कॉन्टेंट की मात्रा बढ़ती रहेगी। हम ज़रूरी पारदर्शिता प्रदान करना चाहते हैं, जिससे डिजिटल कॉन्टेंट की उत्पत्ति का पता लगाने में मदद मिले।”
Piotr Dąbkowski
Co-founder at ElevenLabs
विशेष ध्यान: 2024 के चुनाव
दुनिया का आधा हिस्सा 2024 में वोट देगा। इस साल के चुनावों की तैयारी के लिए, हम AI आवाजों के सुरक्षित और निष्पक्ष उपयोग को बढ़ाने पर खास ध्यान दे रहे हैं।
इन प्रयासों को सुविधाजनक बनाने के लिए, हम चुनाव सुरक्षा पर टेक अकॉर्ड के प्रारंभिक हस्ताक्षरकर्ता हैं, जो Amazon, Google, Meta, Microsoft, OpenAI, और ElevenLabs जैसे कई इंडस्ट्री लीडर्स को वैश्विक चुनावों को AI के दुरुपयोग से सुरक्षित रखने के लिए एक संयुक्त प्रयास के रूप में एक साथ लाता है।
“जैसे-जैसे AI हमारे दैनिक जीवन का हिस्सा बन रहा है, हम भरोसेमंद प्रोडक्ट बनाने और उनके दुरुपयोग से बचाव के लिए पार्टनर्स के साथ सहयोग करने के लिए प्रतिबद्ध हैं।”
Aleksandra Pedraszewska
AI Safety at ElevenLabs