हम अपनी प्रमुख ऑडियो AI प्रौद्योगिकी का सुरक्षित उपयोग सुनिश्चित करने के लिए प्रतिबद्ध हैं।
AI ऑडियो भाषा और संचार की बाधाओं को पार करने में मदद करता है, जिससे एक अधिक जुड़ा हुआ, रचनात्मक और उत्पादक दुनिया का मार्ग प्रशस्त होता है। यह गलत इरादों वाले लोगों को भी आकर्षित कर सकता है। हमारा मिशन बेहतरीन ऑडियो AI प्रोडक्ट बनाना और डिप्लॉय करते हुए सुरक्षा में लगातार सुधार करना है ताकि इनके दुरुपयोग को रोका जा सके।
“ElevenLabs में AI सुरक्षा नवाचार से अलग नहीं है। यह सुनिश्चित करना कि हमारे सिस्टम सुरक्षित रूप से विकसित, तैनात और उपयोग किए गए हैं, हमारी रणनीति के केंद्र में बना हुआ है।”
Mati Staniszewski
Co-founder at ElevenLabs
हमारा उद्देश्य किसी भी भाषा और किसी भी आवाज़ में कॉन्टेंट को सुलभ बनाना है।
हम दुनिया भर में लाखों यूज़र्स के साथ-साथ प्रमुख प्रकाशन और मीडिया कंपनियों के लिए एक भरोसेमंद AI ऑडियो प्रदाता हैं, जिनमें शामिल हैं:
ElevenLabs सुरक्षा, व्यवहार में
हम तीन सिद्धांतों द्वारा निर्देशित होते हैं ताकि यह सुनिश्चित हो सके कि AI ऑडियो दुनिया भर के लोगों को लाभ पहुंचा सके: मॉडरेशन, जवाबदेही, और उत्पति।
मॉडरेशन
हम अपनी तकनीक से तैयार किए गए कॉन्टेंट की सक्रिय रूप से निगरानी करते हैं।

ऑटोमैटिक मॉडरेशन। हमारे ऑटोमैटिक सिस्टम हमारी पॉलिसीका उल्लंघन करने वाले कॉन्टेंट को स्कैन करते हैं, इन्हें तुरंत ब्लॉक करते हैं या समीक्षा के लिए फ़्लैग करते हैं।
मानव मॉडरेशन। एक बढ़ती हुई मॉडरेटर टीम फ़्लैग किए गए कॉन्टेंट की समीक्षा करती है और यह सुनिश्चित करने में हमारी मदद करती है कि हमारी पॉलिसी का लगातार पालन हो।
अवांछित आवाज़ें (नो-गो वॉइस)। जबकि हमारी पॉलिसी नक़ल करने पर रोक लगाती हैं, हम एक अतिरिक्त सुरक्षा टूल का उपयोग करते हैं जिससे विशेष रूप से उच्च-जोखिम वाली आवाज़ों के साथ कॉन्टेंट बनाने को रोका जा सके।
वॉइसकैप्चा (voiceCAPTCHA)। हमने एक प्रोपराइटरी वॉइस वेरिफिकेशन तकनीक विकसित की है जो अवैध रूप से वॉइस क्लोनिंग टूल्स के उपयोग को कम करने के लिए बनाई गई है, जिससे यह सुनिश्चित हो सके कि हमारे उच्च गुणवत्ता वाले वॉइस क्लोनिंग टूल का यूज़र केवल अपनी आवाज़ को ही क्लोन कर सकते हैं।
निषिद्ध कॉन्टेंट और उपयोग पॉलिसी
हमारे टूल का उपयोग करते समय जो कॉन्टेंट और गतिविधियां अनुमति नहीं हैं, उनके प्रकारों के बारे में जानें।
जवाबदेही
हम मानते हैं कि दुरुपयोग करने वालों को सबक सिखाया जाना चाहिए।

ट्रेस करने की क्षमता। जब कोई गलत इरादे वाला हमारे टूल का दुरुपयोग करता है, तो हम जानना चाहते हैं कि वह कौन है। हमारे सिस्टम हमें उत्पन्न कॉन्टेंट को मूल खातों तक ट्रेस करने की अनुमति देते हैं और हमारे वॉइस क्लोनिंग टूल केवल उन यूज़र्स के लिए उपलब्ध हैं जिन्होंने बिलिंग विवरण के साथ अपने खातों को सत्यापित किया है।
प्रतिबंध। हम गलत इरादे वालों को बताना चाहते हैं कि उनके लिए हमारे प्लेटफ़ॉर्म पर कोई जगह नहीं है। हम उन यूज़र्स को स्थायी रूप से प्रतिबंधित करते हैं जो हमारी पॉलिसी का उल्लंघन करते हैं।
कानून प्रवर्तन के साथ पार्टनरशिप। हम अधिकारियों के साथ सहयोग करेंगे और उचित मामलों में अवैध कॉन्टेंट या गतिविधियों के बारे में रिपोर्ट करेंगे या जानकारी का खुलासा करेंगे।
कॉन्टेंट की रिपोर्ट करें
यदि आपको ऐसा लगता है कि कॉन्टेंट हमारे टूल से बनाया गया है और यह चिंताजनक है, तो कृपया यहां रिपोर्ट करें।
उत्पति
हम मानते हैं कि आपको यह पता होना चाहिए कि ऑडियो AI जनरेटेड है या नहीं।

AI स्पीच क्लासिफायर। हमने एक बहुत अधिक सटीक पहचान टूल विकसित किया है जिसमें 99% सटीकता और 80% रिकॉल है, यदि नमूने में कोई बदलाव नहीं किया गया है, और इससे कोई भी यह देख सकता है कि किसी ऑडियो फ़ाइल को हमारी तकनीक से जनरेट किया गया है या नहीं।
AI पहचान मानक। हम मानते हैं कि मेटाडेटा, वॉटरमार्किंग और फिंगरप्रिंटिंग समाधान जैसे डाउनस्ट्रीम AI पहचान टूल महत्वपूर्ण हैं। हम C2PA के माध्यम से उत्पति के लिए उद्योग मानकों को अपनाने का समर्थन करतेहैं।
सहयोग। हम AI कंपनियों, शिक्षाविदों और पॉलिसी निर्माताओं को AI कॉन्टेंट पहचान के लिए उद्योग-व्यापी तरीकों को विकसित करने में सहयोग के लिए आमंत्रित करते हैं। हम कॉन्टेंट ऑथेंटिसिटी इनिशिएटिव का हिस्सा हैं, और कॉन्टेंट डिस्ट्रीब्यूटर और सिविल सोसायटी के साथ AI कॉन्टेंट पारदर्शिता स्थापित करने के लिए पार्टनरशिप करते हैं। हम सरकारी AI सुरक्षा प्रयासों का भी समर्थन करते हैं और हम U.S. नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड प्रौद्योगिकी (NIST) के AI सुरक्षा संस्थान संघ के सदस्य हैं।
ElevenLabs AI स्पीच क्लासिफायर
हमारा AI स्पीच क्लासिफायर आपको यह पता लगाने देता है कि कोई ऑडियो क्लिप ElevenLabs का उपयोग करके बनाई गई है या नहीं।
कोएलिशन फॉर कॉन्टेंट उत्पति एंड ऑथेंटिसिटी
एक खुला तकनीकी मानक जो मीडिया की उत्पत्ति का पता लगाने की क्षमता प्रदान करता है।
कॉन्टेंट ऑथेंटिसिटी इनिशिएटिव
कॉन्टेंट प्रामाणिकता और उत्पति के लिए एक खुला उद्योग मानक अपनाने को बढ़ावा देना।
“AI-जनरेटेड कॉन्टेंट की मात्रा बढ़ती रहेगी। हम ज़रूरी पारदर्शिता प्रदान करना चाहते हैं, जिससे डिजिटल कॉन्टेंट की उत्पत्ति का पता लगाने में मदद मिले।”
Piotr Dąbkowski
Co-founder at ElevenLabs
विशेष ध्यान: 2024 के चुनाव
दुनिया का आधा हिस्सा 2024 में वोट देगा। इस वर्ष के चुनावों की तैयारी के लिए, हम AI आवाजों के सुरक्षित और निष्पक्ष उपयोग को आगे बढ़ाने पर केंद्रित हैं।
इन प्रयासों को सुविधाजनक बनाने के लिए, हम चुनाव सुरक्षा पर टेक अकॉर्ड के प्रारंभिक हस्ताक्षरकर्ता हैं, जो Amazon, Google, Meta, Microsoft, OpenAI, और ElevenLabs जैसे उद्योग के नेताओं को वैश्विक चुनावों को AI के दुरुपयोग से सुरक्षित रखने के लिए एक समन्वित प्रयास के रूप में एक साथ लाता है।
“जैसे-जैसे AI हमारे दैनिक जीवन का हिस्सा बनता है, हम भरोसेमंद प्रोडक्ट बनाने और उनके दुरुपयोग से बचाव के लिए पार्टनर्स के साथ सहयोग करने के लिए प्रतिबद्ध हैं।”
Aleksandra Pedraszewska
AI Safety at ElevenLabs