हम अपनी प्रमुख ऑडियो AI प्रौद्योगिकी का सुरक्षित उपयोग सुनिश्चित करने के लिए प्रतिबद्ध हैं।

AI ऑडियो भाषा और संचार की बाधाओं को पार करने में मदद करता है, जिससे एक अधिक जुड़ा हुआ, रचनात्मक और उत्पादक दुनिया का मार्ग प्रशस्त होता है। यह गलत इरादों वाले लोगों को भी आकर्षित कर सकता है। हमारा मिशन बेहतरीन ऑडियो AI प्रोडक्ट बनाना और डिप्लॉय करते हुए सुरक्षा में लगातार सुधार करना है ताकि इनके दुरुपयोग को रोका जा सके।

ElevenLabs में AI सुरक्षा नवाचार से अलग नहीं है। यह सुनिश्चित करना कि हमारे सिस्टम सुरक्षित रूप से विकसित, तैनात और उपयोग किए गए हैं, हमारी रणनीति के केंद्र में बना हुआ है।

Mati Staniszewski

Co-founder at ElevenLabs

हमारा उद्देश्य किसी भी भाषा और किसी भी आवाज़ में कॉन्टेंट को सुलभ बनाना है।

हम दुनिया भर में लाखों यूज़र्स के साथ-साथ प्रमुख प्रकाशन और मीडिया कंपनियों के लिए एक भरोसेमंद AI ऑडियो प्रदाता हैं, जिनमें शामिल हैं:

The Washington Post Logo

ElevenLabs सुरक्षा, व्यवहार में

हम तीन सिद्धांतों द्वारा निर्देशित होते हैं ताकि यह सुनिश्चित हो सके कि AI ऑडियो दुनिया भर के लोगों को लाभ पहुंचा सके: मॉडरेशन, जवाबदेही, और उत्पति

मॉडरेशन

हम अपनी तकनीक से तैयार किए गए कॉन्टेंट की सक्रिय रूप से निगरानी करते हैं।

ऑटोमैटिक मॉडरेशन। हमारे ऑटोमैटिक सिस्टम हमारी पॉलिसीका उल्लंघन करने वाले कॉन्टेंट को स्कैन करते हैं, इन्हें तुरंत ब्लॉक करते हैं या समीक्षा के लिए फ़्लैग करते हैं।

मानव मॉडरेशन। एक बढ़ती हुई मॉडरेटर टीम फ़्लैग किए गए कॉन्टेंट की समीक्षा करती है और यह सुनिश्चित करने में हमारी मदद करती है कि हमारी पॉलिसी का लगातार पालन हो।

अवांछित आवाज़ें (नो-गो वॉइस)। जबकि हमारी पॉलिसी नक़ल करने पर रोक लगाती हैं, हम एक अतिरिक्त सुरक्षा टूल का उपयोग करते हैं जिससे विशेष रूप से उच्च-जोखिम वाली आवाज़ों के साथ कॉन्टेंट बनाने को रोका जा सके।

वॉइसकैप्चा (voiceCAPTCHA)। हमने एक प्रोपराइटरी वॉइस वेरिफिकेशन तकनीक विकसित की है जो अवैध रूप से वॉइस क्लोनिंग टूल्स के उपयोग को कम करने के लिए बनाई गई है, जिससे यह सुनिश्चित हो सके कि हमारे उच्च गुणवत्ता वाले वॉइस क्लोनिंग टूल का यूज़र केवल अपनी आवाज़ को ही क्लोन कर सकते हैं।

जवाबदेही

हम मानते हैं कि दुरुपयोग करने वालों को सबक सिखाया जाना चाहिए।

ट्रेस करने की क्षमता। जब कोई गलत इरादे वाला हमारे टूल का दुरुपयोग करता है, तो हम जानना चाहते हैं कि वह कौन है। हमारे सिस्टम हमें उत्पन्न कॉन्टेंट को मूल खातों तक ट्रेस करने की अनुमति देते हैं और हमारे वॉइस क्लोनिंग टूल केवल उन यूज़र्स के लिए उपलब्ध हैं जिन्होंने बिलिंग विवरण के साथ अपने खातों को सत्यापित किया है।

प्रतिबंध। हम गलत इरादे वालों को बताना चाहते हैं कि उनके लिए हमारे प्लेटफ़ॉर्म पर कोई जगह नहीं है। हम उन यूज़र्स को स्थायी रूप से प्रतिबंधित करते हैं जो हमारी पॉलिसी का उल्लंघन करते हैं

कानून प्रवर्तन के साथ पार्टनरशिप। हम अधिकारियों के साथ सहयोग करेंगे और उचित मामलों में अवैध कॉन्टेंट या गतिविधियों के बारे में रिपोर्ट करेंगे या जानकारी का खुलासा करेंगे।

उत्पति

हम मानते हैं कि आपको यह पता होना चाहिए कि ऑडियो AI जनरेटेड है या नहीं।

AI स्पीच क्लासिफायर। हमने एक बहुत अधिक सटीक पहचान टूल विकसित किया है जिसमें 99% सटीकता और 80% रिकॉल है, यदि नमूने में कोई बदलाव नहीं किया गया है, और इससे कोई भी यह देख सकता है कि किसी ऑडियो फ़ाइल को हमारी तकनीक से जनरेट किया गया है या नहीं।

AI पहचान मानक। हम मानते हैं कि मेटाडेटा, वॉटरमार्किंग और फिंगरप्रिंटिंग समाधान जैसे डाउनस्ट्रीम AI पहचान टूल महत्वपूर्ण हैं। हम C2PA के माध्यम से उत्पति के लिए उद्योग मानकों को अपनाने का समर्थन करतेहैं।

सहयोग। हम AI कंपनियों, शिक्षाविदों और पॉलिसी निर्माताओं को AI कॉन्टेंट पहचान के लिए उद्योग-व्यापी तरीकों को विकसित करने में सहयोग के लिए आमंत्रित करते हैं। हम कॉन्टेंट ऑथेंटिसिटी इनिशिएटिव का हिस्सा हैं, और कॉन्टेंट डिस्ट्रीब्यूटर और सिविल सोसायटी के साथ AI कॉन्टेंट पारदर्शिता स्थापित करने के लिए पार्टनरशिप करते हैं। हम सरकारी AI सुरक्षा प्रयासों का भी समर्थन करते हैं और हम U.S. नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स एंड प्रौद्योगिकी (NIST) के AI सुरक्षा संस्थान संघ के सदस्य हैं।

AI-जनरेटेड कॉन्टेंट की मात्रा बढ़ती रहेगी। हम ज़रूरी पारदर्शिता प्रदान करना चाहते हैं, जिससे डिजिटल कॉन्टेंट की उत्पत्ति का पता लगाने में मदद मिले।

Piotr Dąbkowski

Co-founder at ElevenLabs

विशेष ध्यान: 2024 के चुनाव

दुनिया का आधा हिस्सा 2024 में वोट देगा। इस वर्ष के चुनावों की तैयारी के लिए, हम AI आवाजों के सुरक्षित और निष्पक्ष उपयोग को आगे बढ़ाने पर केंद्रित हैं।

इन प्रयासों को सुविधाजनक बनाने के लिए, हम चुनाव सुरक्षा पर टेक अकॉर्ड के प्रारंभिक हस्ताक्षरकर्ता हैं, जो Amazon, Google, Meta, Microsoft, OpenAI, और ElevenLabs जैसे उद्योग के नेताओं को वैश्विक चुनावों को AI के दुरुपयोग से सुरक्षित रखने के लिए एक समन्वित प्रयास के रूप में एक साथ लाता है।

जैसे-जैसे AI हमारे दैनिक जीवन का हिस्सा बनता है, हम भरोसेमंद प्रोडक्ट बनाने और उनके दुरुपयोग से बचाव के लिए पार्टनर्स के साथ सहयोग करने के लिए प्रतिबद्ध हैं।

Aleksandra Pedraszewska

AI Safety at ElevenLabs

हमारे सुरक्षा प्रयासों के बारे में अधिक पढ़ें

अनुपालन

ElevenLabs

उच्चतम गुणवत्ता वाले AI ऑडियो के साथ बनाएं

फ़्री शुरू करें

पहले से अकाउंट है? लॉग इन करें