फोकस में: MIT EmTech डिजिटल में ElevenLabs

कॉन्टेंट स्रोत, पहचान और मॉडरेशन पर ध्यान देकर AI सुरक्षा को बढ़ावा देना

प्रोवेनेंस: कॉन्टेंट की उत्पत्ति को समझकर AI-जनरेटेड कॉन्टेंट को असली कॉन्टेंट से पहचानने में मदद करता है. AI डिटेक्शन टूल्स जैसे कि क्लासिफ़ायर्स, प्रोबेबिलिस्टिक मॉडल्स हैं जो AI-जनरेटेड आउटपुट को पहचानने के लिए ट्रेन किए जाते हैं. ElevenLabs में, हमने AI स्पीच क्लासिफ़ायर डेवलप किया है जो किसी को भी सैंपल्स अपलोड करके यह चेक करने की सुविधा देता है कि वे हमारे प्लेटफ़ॉर्म से आए हैं या नहीं. हम AI कॉन्टेंट क्लासिफ़िकेशन क्षमता को बढ़ाने के लिए Loccus के साथ भी सहयोग कर रहे हैं. हालांकि, क्लासिफ़ायर उत्पति की पहचान के लिए संपूर्ण समाधान नहीं हैं; उनकी सीमाएं हैं. इन्हें ध्यान में रखते हुए, डाउनस्ट्रीम AI पहचान विधियां उभरी हैं, जिसमें मेटाडेटा, वाटरमार्क और फिंगरप्रिंटिंग समाधान शामिल हैं. हम उद्योग-व्यापी प्रयासों का समर्थन करते हैं, जैसे कि क्रिप्टोग्राफ़िक रूप से हस्ताक्षरित मेटाडेटा मानक C2PA, जो खुले और इंटरऑपरेबल हैं और मुख्य वितरण चैनलों जैसे Instagram या Facebook पर AI-जनित कॉन्टेंट को लेबल करने में सक्षम बना सकते हैं.

ट्रेस करने की क्षमता: सुनिश्चित करता है कि AI-जनित कॉन्टेंट को एक व्यक्तिगत यूज़र तक ट्रेस किया जा सकता है. ElevenLabs में, हमारा सिस्टम हमें अपने प्लेटफ़ॉर्म पर उत्पन्न कॉन्टेंट को संबंधित अकाउंट से लिंक करने देता है, और हमारी वॉइस क्लोनिंग टूल केवल उन्हीं यूज़र्स के लिए सुलभ हैं जिन्होंने अपने अकाउंट को बैंकिंग जानकारी के साथ सत्यापित किया है. ट्रेस करने की क्षमता पर ध्यान केंद्रित करने से सुनिश्चित होता है कि AI प्लेटफ़ार्मों का उपयोग करने वाला कोई भी व्यक्ति अपने कार्यों के लिए उत्तरदायी हो और आवश्यक होने पर कानूनी प्राधिकरण द्वारा पहचाना जा सके.

मॉडरेशन: इसमें स्वीकृत कॉन्टेंट और उपयोग के बारे में स्पष्ट पॉलिसीज़ निर्धारित करना और यूज़र्स को ऐसा कॉन्टेंट उत्पन्न करने से रोकना शामिल है, जो इन पॉलिसीज़ का पालन नहीं करता है. ElevenLabs में, हम अनुचित कॉन्टेंट को स्कैन, फ्लैग और ब्लॉक करने के लिए ऑटोमैटिक सिस्टम का उपयोग करते हैं. फ्लैग किए गए कॉन्टेंट की समीक्षा मानव मॉडरेटर्स द्वारा की जाती है ताकि पॉलिसी प्रवर्तन में निरंतरता बनी रहे. हम सार्वजनिक विश्वास या सुरक्षा को नुकसान पहुंचा सकने वाले कॉन्टेंट उत्पति को रोकने के लिए अपने मॉडरेशन प्रौद्योगिकी को लगातार एडवांस कर रहे हैं. ओपन सोर्स मॉडरेशन एंडपॉइंट्स, जैसे कि OpenAI द्वारा प्रदान किया गया, किसी भी AI अनुप्रयोगों में सरलता से प्रॉम्प्ट मॉडरेशन का इंटीग्रेशन सक्षम करता है.

सामान्य लक्ष्य की ओर मिलकर काम करना

हालांकि हम सुरक्षित AI विकास को प्राथमिकता देते हैं, कोई भी कंपनी अकेले AI के दुरुपयोग से निपट नहीं सकती. पैनल में, हमने तकनीकी कंपनियों, सरकारों, नागरिक अधिकार समूहों और जनता के बीच व्यापक सहयोग की ज़रूरत को पहचाना, ताकि सामाजिक और पर्यावरणीय परिवर्तनों का सामना किया जा सके और एक सुरक्षित डिजिटल भविष्य सुनिश्चित किया जा सके. ElevenLabs में, हम अपनी समुदाय में खुले संवाद को बनाए रखने और कॉन्टेंट ऑथेंटिसिटी इनिशिएटिव और इलेक्शन सेफ्टी अकोर्ड जैसे प्रयासों का समर्थन करते हैं, ताकि भ्रांतियों से मुकाबला किया जा सके.

AI सुरक्षा का भविष्य-संरक्षण

पैनल में, हम सभी सहमत हुए कि AI प्रोडक्ट को सुरक्षित रूप से विकसित और उपयोग किया जाना चाहिए. साथ ही, हमें उनके रचनात्मक और अप्रत्याशित उपयोगों की अनुमति भी देनी चाहिए. ElevenLabs में, हम अक्सर देखते हैं कि हमारे सिस्टम का उपयोग ऑडियो ट्रांसक्रिप्शन की ज़रूरत वाले व्यक्तियों के लिए डिजिटल कॉन्टेंट की पहुंच में सुधार करने और ALS जैसी स्वास्थ्य स्थितियों के कारण अपनी आवाज़ खो चुके लोगों को आवाज़ देने के लिए किया जाता है. AI अनुप्रयोगों को फलने-फूलने के लिए, यह आवश्यक है कि AI मीडिया के बारे में जागरूकता बढ़ाई जाए, डिजिटल कॉन्टेंट के साथ गंभीर रूप से बातचीत को प्रोत्साहित किया जाए, प्रामाणिकता सत्यापित करने के लिए टूल्स को बढ़ावा दिया जाए, और सार्वजनिक और संस्थानों को नैतिक AI उपयोग पर शिक्षित किया जाए.

और खोजें

ElevenLabs

उच्चतम गुणवत्ता वाले AI ऑडियो के साथ बनाएं

फ़्री शुरू करें

पहले से अकाउंट है? लॉग इन करें