हमारा AI Speech Classifier आपको यह पता लगाने की सुविधा देता है कि ऑडियो क्लिप ElevenLabs का इस्तेमाल करके बनाई गई थी या नहीं
2024 के चुनावों की तैयारी ElevenLabs कैसे कर रहा है
हमारे सिस्टम को सुरक्षित तरीके से डेवलप, डेप्लॉय और इस्तेमाल करना हमारी प्राथमिकता है
2024 में दुनिया भर में कई चुनाव होने वाले हैं. उनके करीब आने के साथ, हम AI आवाज़ों के सुरक्षित और निष्पक्ष इस्तेमाल को बढ़ावा देने पर ध्यान केंद्रित कर रहे हैं.
हमारी टेक्नोलॉजी की उत्पत्ति भाषा संबंधी बाधाओं को दूर करने और ग्लोबल समझ को बढ़ावा देने की प्रतिबद्धता से हुई थी. यह शिक्षा, मनोरंजन और एक्सेसिबिलिटी में प्रेरणादायक अनुप्रयोग खोजने के साथ-साथ कॉन्टेंट को और अधिक आकर्षक और समावेशी बनाने का काम जारी रखता है.
हालांकि, हम AI टेक्नोलॉजी के बदलते परिदृश्य और इसके राजनीतिक प्रक्रिया पर प्रभाव को पहचानते हैं. हमारे सिस्टम को सुरक्षित रूप से डेवलप, डेप्लॉय और इस्तेमाल में लाना हमारी प्राथमिकता है, और जैसे-जैसे टेक्नोलॉजी विकसित हो रही है, हम इसके दुरुपयोग और गलत सूचना के प्रसार से निपटने के लिए अतिरिक्त उपाय कर रहे हैं.
दुरुपयोग रोकना
हमारे प्लेटफ़ॉर्म के सभी यूज़र्स के लिए सकारात्मक अनुभव सुनिश्चित करने के लिए, हम गलत सूचना फैलाने के लिए AI आवाज़ों के इस्तेमाल को रोकने के लिए विशिष्ट कदम उठा रहे हैं. हालांकि हमारे नियम पहले से ही हमारे प्लेटफ़ॉर्म का इस्तेमाल दूसरों का प्रतिरूपण या नुकसान पहुंचाने के लिए करने से रोकते हैं, हम एक'नो-गो वॉइस' सेफ़गार्ड लागू करने काअतिरिक्त उपाय कर रहे हैं. यह सेफ़गार्ड उन आवाज़ों का पता लगाने और रोकने के लिए डिज़ाइन किया गया है जो अमेरिका और UK में राष्ट्रपति या प्रधानमंत्री चुनावों में सक्रिय रूप से शामिल राजनीतिक उम्मीदवारों की नकल करती हैं. हम इस सेफ़गार्ड को अन्य भाषाओं और चुनाव चक्रों तक विस्तारित करने के लिए काम कर रहे हैं. हम इसे व्यावहारिक परीक्षण और फ़ीडबैक के माध्यम से लगातार सुधारने का लक्ष्य भी रखते हैं. हम साथी AI कंपनियों और भागीदारों को इन सेफ़गार्ड को प्रभावी ढंग से सुधारने और विस्तारित करने के तरीकों का पता लगाने के लिए हमारे साथ सहयोग करने के लिए आमंत्रित करते हैं.
हम ऐसे राजनीतिक कॉन्टेंट के निर्माण का प्रतिरोध करने के नए तरीके सक्रिय रूप से परीक्षण कर रहे हैं जो या तो लोकतांत्रिक प्रक्रिया में भागीदारी को प्रभावित कर सकता है या मतदाताओं को गुमराह कर सकता है. हमारे सिस्टम ने हमेशा हमें हमारे प्लेटफ़ॉर्म पर उत्पन्न कॉन्टेंट को मूल खाते तक वापस खोजने की अनुमति दी है. हम दुरुपयोग के मामलों की पहचान करने और उनसे निपटने के लिए नया मॉडरेशन और आंतरिक समीक्षा तंत्र विकसित कर रहे हैं. चुनावी प्रक्रियाओं, मतदाता पात्रता या मतदान के महत्व को गलत तरीके से प्रस्तुत करना लोकतंत्र को कमजोर करता है और हम AI का इस्तेमाल कर लोकतांत्रिक प्रणाली में भ्रम या अविश्वास पैदा करने का विरोध करते हैं. हमारी टेक्नोलॉजी का इस्तेमाल राजनीतिक प्रचार गतिविधियों के लिए करना जिसमें दूसरों का प्रतिरूपण, चैटबॉट बनाना, या रोबोकॉल करना शामिल है, हमारे नियमों का सीधा उल्लंघन है.
AI-जनित कॉन्टेंट पर पारदर्शिता
AI-जनित कॉन्टेंट की स्पष्ट पहचान सक्षम करना हमारे जिम्मेदार विकास प्रयासों का एक प्रमुख पहलू है.
पिछले जून में हमने AI स्पीच क्लासिफायरलॉन्च किया, जो किसी को भी यह विश्लेषण करने के लिए ऑडियो सैंपल अपलोड करने की अनुमति देता है कि क्या सैंपल ElevenLabs से AI-जनित ऑडियो था. हमारा लक्ष्य गलत सूचना के प्रसार को रोकने में मदद करना है, जिससे ऑडियो कॉन्टेंट के स्रोत का आकलन करना आसान हो सके. यदि आप किसी पार्टनरशिप या इंटीग्रेशन में रुचि रखते हैं, तो कृपया हमसे इस पते पर संपर्क करें legal@elevenlabs.io. यदि आपको हमारे प्लेटफ़ॉर्म पर कोई चिंता का विषय दिखाई देता है, या आपको लगता है कि यह हमारे प्लेटफ़ॉर्म पर बनाया गया था, तो कृपया हमें यहां बताएं.
इनोवेशन और जिम्मेदारी में संतुलन
हमारी टेक्नोलॉजी के लिए हमारे समुदाय द्वारा खोजे गए सकारात्मक अनुप्रयोगों से हम प्रेरित हैं. 2024 और उससे आगे भी, हम अपने समुदाय, भागीदारों, नागरिक समाज और प्रमुख हितधारकों के साथ लगातार बातचीत बनाए रखते हुए जिम्मेदार इनोवेशन के लिए प्रतिबद्ध हैं.
और खोजें

ElevenLabs ने इलेक्शन सेफ़्टी के लिए Tech Accord पर हस्ताक्षर किए
AI के ज़िम्मेदारीपूर्ण डेवलपमेंट के ज़रिये चुनावों की शुचिता सुनिश्चित करना.

ElevenLabs और Reality Defender ने AI सुरक्षा पहलों पर पार्टनरशिप की
Reality Defender ने ElevenLabs के ऑडियो AI डेटा और इनसाइट्स का लाभ उठाकर AI डिटेक्शन सिस्टम्स को मजबूत किया