हम अपनी प्रमुख ऑडियो AI टेक्नोलॉजी का सुरक्षित उपयोग सुनिश्चित करने के लिए प्रतिबद्ध हैं।

AI ऑडियो भाषा और कम्युनिकेशन की बाधाओं को पार करने में मदद करता है, जिससे एक ज्यादा जुड़ी हुई, क्रिएटिव और प्रोडक्टिव दुनिया बनती है। यह गलत इरादों वाले लोगों को भी आकर्षित कर सकता है। हमारा मिशन बेहतरीन ऑडियो AI प्रोडक्ट बनाना और तैनात करते हुए सुरक्षा में लगातार सुधार करना है ताकि इनके दुरुपयोग को रोका जा सके।

ElevenLabs में AI सुरक्षा नवाचार से अलग नहीं है। यह सुनिश्चित करना कि हमारे सिस्टम सुरक्षित रूप से विकसित, तैनात और उपयोग किए गए हैं, ये हमारी रणनीति का अहम हिस्सा है।
A young man smiling while working at a computer in an office setting.

Mati Staniszewski

Co-founder at ElevenLabs

हमारा मिशन किसी भी भाषा और किसी भी आवाज़ में कॉन्टेंट को सुलभ बनाना है।

हम दुनिया भर में लाखों यूज़र्स के साथ-साथ प्रमुख प्रकाशन और मीडिया कंपनियों के लिए एक भरोसेमंद AI ऑडियो प्रदाता हैं, जिनमें शामिल हैं:

The Washington Post Logo
CNN logo in red text
HarperCollins Publishers logo with a flame and water icon.

ElevenLabs की सुरक्षा असल में

हम तीन सिद्धांतों पर चलते हैं ताकि जोखिम को नियंत्रण करते हुए AI ऑडियो दुनियाभर के लोगों के लिए फायदेमंद रहे: मॉडरेशन, जवाबदेही और उत्पति

मॉडरेशन

हम अपनी टेक्नोलॉजी से तैयार किए गए कॉन्टेंट की सक्रिय रूप से निगरानी करते हैं।

Blurred yellow text box with a warning icon at the bottom left corner.

ऑटोमैटिक मॉडरेशन। हमारे ऑटोमैटिक सिस्टम हमारी पॉलिसी का उल्लंघन करने वाले कॉन्टेंट को स्कैन करते हैं, इन्हें तुरंत ब्लॉक करते हैं या रिव्यू के लिए फ़्लैग करते हैं।

मानव मॉडरेशन। एक बढ़ती हुई मॉडरेटर टीम फ़्लैग किए गए कॉन्टेंट को रिव्यू करते है और यह सुनिश्चित करने में हमारी मदद करती है कि हमारी पॉलिसी का लगातार पालन हो।

अवांछित आवाज़ें (नो-गो वॉइस)। जबकि हमारी पॉलिसी नक़ल करने पर रोक लगाती हैं, हम एक अतिरिक्त सुरक्षा टूल का उपयोग करते हैं जिससे विशेष रूप से उच्च-जोखिम वाली आवाज़ों के साथ कॉन्टेंट बनाने को रोका जा सके।

वॉइसकैप्चा (voiceCAPTCHA)। हमने एक प्रोपराइटरी वॉइस वेरिफिकेशन तकनीक विकसित की है जो अवैध रूप से वॉइस क्लोनिंग टूल्स के उपयोग को कम करने के लिए बनाई गई है, जिससे यह सुनिश्चित हो सके कि हमारे हाई क्वालिटी वाले वॉइस क्लोनिंग टूल का यूज़र केवल अपनी आवाज़ को ही क्लोन कर सकते हैं।

जवाबदेही

हम मानते हैं कि दुरुपयोग करने वालों को सबक सिखाया जाना चाहिए।

A digital interface showing a microphone icon, a folder icon, and a green circular pattern with a checkmark.

ट्रेस करने की क्षमता। जब कोई गलत इरादे वाला हमारे टूल का दुरुपयोग करता है, तो हम जानना चाहते हैं कि वह कौन है। हमारे सिस्टम हमें जनरेट किए गए कॉन्टेंट को असली अकाउंट्स तक ट्रेस करने की अनुमति देते हैं और हमारे वॉइस क्लोनिंग टूल केवल उन यूज़र्स के लिए उपलब्ध हैं जिन्होंने बिलिंग विवरण के साथ अपने अकाउंट्स को वेरिफाई किया है।

प्रतिबंध। हम गलत इरादे वालों को बताना चाहते हैं कि उनके लिए हमारे प्लेटफ़ॉर्म पर कोई जगह नहीं है। हम उन यूज़र्स को स्थायी रूप से प्रतिबंधित करते हैं जो हमारी पॉलिसी का उल्लंघन करते हैं

कानून प्रवर्तन के साथ पार्टनरशिप। हम अथॉरिटीज़ के साथ पूरा सहयोग करेंगे और ज़रूरत पड़ने पर गैरकानूनी कंटेंट या गतिविधियों से जुड़ी जानकारी रिपोर्ट या साझा करेंगे।

उत्पति

हम मानते हैं कि आपको यह पता होना चाहिए कि कोई ऑडियो AI से जनरेट किया गया है या नहीं।

Abstract black and white wavy lines on a light background.

AI स्पीच क्लासिफायर। हमने एक बहुत अधिक सटीक डिटेक्शन टूल विकसित किया है जिसमें 99% सटीकता और 80% रिकॉल बनाए रखता है, यदि नमूने में कोई बदलाव नहीं किया गया है, और इससे कोई भी यह देख सकता है कि किसी ऑडियो फ़ाइल को हमारी टेक्नोलॉजी से जनरेट किया गया है या नहीं।

AI डिटेक्शन स्टैंडर्ड्स। हम मानते हैं कि मेटाडेटा, वॉटरमार्किंग और फिंगरप्रिंटिंग समाधान जैसे डाउनस्ट्रीम AI पहचान टूल महत्वपूर्ण हैं। हम C2PA के माध्यम से उत्पति के लिए इंडस्ट्री स्टैंडर्ड्स को अपनाने का समर्थन करते हैं।

सहयोग। हम AI कंपनियों, शैक्षणिक संस्थानों और पॉलिसी निर्माताओं को AI कॉन्टेंट डिटेक्शन के लिए इंडस्ट्री-वाइड तरीकों को विकसित करने में सहयोग के लिए आमंत्रित करते हैं। हम कॉन्टेंट ऑथेंटिसिटी इनिशिएटिव का हिस्सा हैं, और कॉन्टेंट डिस्ट्रीब्यूटर और सिविल सोसायटी के साथ मिलकर AI कॉन्टेंट पारदर्शिता स्थापित करने के लिए काम करते हैं। हम सरकारी AI सुरक्षा प्रयासों का भी समर्थन करते हैं और हम U.S. नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड टेक्नोलॉजी (NIST) के AI सेफ्टी इंस्टीट्यूट कंसोर्टियम के सदस्य हैं।

AI-जनरेटेड कॉन्टेंट की मात्रा बढ़ती रहेगी। हम ज़रूरी पारदर्शिता प्रदान करना चाहते हैं, जिससे डिजिटल कॉन्टेंट की उत्पत्ति का पता लगाने में मदद मिले।
Young man wearing a white T-shirt with "ElevenLabs" logo, indoors.

Piotr Dąbkowski

Co-founder at ElevenLabs

विशेष ध्यान: 2024 के चुनाव

दुनिया का आधा हिस्सा 2024 में वोट देगा। इस साल के चुनावों की तैयारी के लिए, हम AI आवाजों के सुरक्षित और निष्पक्ष उपयोग को बढ़ाने पर खास ध्यान दे रहे हैं।

इन प्रयासों को सुविधाजनक बनाने के लिए, हम चुनाव सुरक्षा पर टेक अकॉर्ड के प्रारंभिक हस्ताक्षरकर्ता हैं, जो Amazon, Google, Meta, Microsoft, OpenAI, और ElevenLabs जैसे कई इंडस्ट्री लीडर्स को वैश्विक चुनावों को AI के दुरुपयोग से सुरक्षित रखने के लिए एक संयुक्त प्रयास के रूप में एक साथ लाता है।

जैसे-जैसे AI हमारे दैनिक जीवन का हिस्सा बन रहा है, हम भरोसेमंद प्रोडक्ट बनाने और उनके दुरुपयोग से बचाव के लिए पार्टनर्स के साथ सहयोग करने के लिए प्रतिबद्ध हैं।
A woman with shoulder-length blonde hair smiling at the camera against a plain light gray background.

Aleksandra Pedraszewska

AI Safety at ElevenLabs

हमारे सुरक्षा प्रयासों के बारे में अधिक पढ़ें

अनुपालन

ElevenLabs

उच्चतम गुणवत्ता वाले AI ऑडियो के साथ बनाएं

मुफ़्त में आज़माएं

क्या आपके पास पहले से अकाउंट है? लॉग इन करें

हम अपनी प्रमुख ऑडियो AI टेक्नोलॉजी का सुरक्षित उपयोग सुनिश्चित करने के लिए प्रतिबद्ध हैं। | ElevenLabs