- ■
वायर्ड जांच से पता चलता है कि वैश्विक स्तर पर लगभग 90 स्कूल और 600 छात्र एआई-जनरेटेड डीपफेक न्यूड से पीड़ित हैं
- ■
संकट कई देशों में फैला हुआ है, जिससे मुख्य रूप से आसानी से सुलभ एआई उपकरण वाली महिला छात्र प्रभावित हो रही हैं
- ■
एआई विकास गति और नाबालिगों की सुरक्षा के लिए नियामक प्रतिक्रिया के बीच भारी अंतर का पता चलता है
- ■
विशेषज्ञों ने चेतावनी दी है कि मौजूदा सुरक्षा उपाय विफल हो रहे हैं क्योंकि तकनीकी कंपनी के वादों के बावजूद ‘न्यूडिफाई’ ऐप्स का प्रसार बढ़ रहा है
डीपफेक संकट को अभी-अभी एक चेहरा मिला है, और यह किसी से भी कम उम्र में स्वीकार करना चाहता है। द्वारा एक संयुक्त जांच वायर्ड और इंडिकेटर ने दुनिया भर में एआई-जनरेटेड डीपफेक नग्न छवियों द्वारा लक्षित लगभग 90 स्कूलों और 600 छात्रों का पता लगाया है – संख्याओं से पता चलता है कि यह अब अलग-थलग घटना नहीं है, बल्कि एक पूर्ण विकसित वैश्विक महामारी है। जबकि टेक कंपनियां स्मार्ट एआई बनाने की दौड़ में हैं, उनके द्वारा पहले ही जारी किए गए टूल को स्कूल हॉलवे में हथियार बनाया जा रहा है, और समस्या धीमी होने के शून्य संकेत दिखाती है।
संख्याएँ एक ऐसी कहानी बताती हैं जो तकनीकी कंपनियाँ नहीं चाहतीं कि आप सुनें। लगभग 90 स्कूल। लगभग 600 छात्र। एआई-जनित नग्न छवियां हॉलवे और समूह चैट में जंगल की आग की तरह फैल रही हैं। वायर्ड रिसर्च फर्म इंडिकेटर के साथ मिलकर की गई जांच से पता चला है कि वैश्विक संकट किस हद तक स्पष्ट रूप से छिपा हुआ है – एक संकट तब से पैदा हो रहा है जब से उपभोक्ता एआई उपकरण परेशान करने वाले यथार्थवाद के साथ तस्वीरों में हेरफेर करने के लिए पर्याप्त शक्तिशाली हो गए हैं।
यह परिष्कृत हैकिंग या डार्क वेब अपराधियों के बारे में नहीं है। अपराधी सहपाठी हैं, ऐसे ऐप्स का उपयोग कर रहे हैं जिन्हें कोई भी डाउनलोड कर सकता है। पीड़ितों में अधिकतर युवा महिलाएं और लड़कियां हैं, सोशल मीडिया से उनकी कपड़े पहने तस्वीरें एआई सिस्टम में डाली जाती हैं जो कुछ ही टैप में उनकी गरिमा को खत्म कर देती हैं। के अनुसार जांच निष्कर्षघटनाएँ महाद्वीपों तक फैली हुई हैं, उत्तरी अमेरिकी उपनगरों से लेकर यूरोपीय शहरों से लेकर एशिया और ऑस्ट्रेलिया के स्कूलों तक।
यह पैमाना उन एआई सुरक्षा उपायों की बुनियादी विफलता को दर्शाता है जिनका टेक कंपनियों ने वादा किया था कि वे इस तरह के नुकसान को रोकेंगे। जबकि ओपनएआई, गूगलऔर मेटा जिम्मेदार एआई विकास और सुरक्षा रेलिंग के बावजूद, जिन्न पहले ही बोतल से बाहर आ चुका है। तृतीय-पक्ष डेवलपर्स ने अनगिनत “न्यूडिफाई” एप्लिकेशन बनाए हैं, जिनमें से कई अमेरिकी और यूरोपीय नियमों की पहुंच से परे काम कर रहे हैं, जो सामान्य तस्वीरों से नकली नग्न छवियां बनाने की अपनी क्षमता का स्पष्ट रूप से विपणन करते हैं।
स्कूल प्रशासक प्री-एआई युग के लिए डिज़ाइन की गई नीतियों पर प्रतिक्रिया देने के लिए संघर्ष कर रहे हैं। पारंपरिक साइबरबुलिंग प्रोटोकॉल सिंथेटिक मीडिया के लिए जिम्मेदार नहीं हैं जो पीड़ित की जानकारी या भागीदारी के बिना बनाया जा सकता है। कानून प्रवर्तन क्षेत्राधिकार संबंधी प्रश्नों से जूझता है – यदि टेक्सास में कोई छात्र पूर्वी यूरोप में सर्वर का उपयोग करके किसी सहपाठी का डीपफेक बनाता है, तो मुकदमा कौन चलाएगा? कानूनी ढांचा प्रौद्योगिकी से वर्षों पीछे है।
पीड़ितों पर मनोवैज्ञानिक प्रभाव तकनीकी चुनौती को बढ़ाता है। पारंपरिक गैर-सहमति वाली अंतरंग छवियों के विपरीत, डीपफेक न्यूड में पीड़ित को कभी भी समझौता करने वाली तस्वीर लेने या भेजने की आवश्यकता नहीं होती है। ऐसा कोई भी क्षण नहीं है जब भरोसा टूटा हो, कोई भी ऐसी तस्वीर नहीं है जिसे साझा नहीं किया जाना चाहिए था। उल्लंघन पूरी तरह से कृत्रिम है, फिर भी आघात और सामाजिक परिणाम विनाशकारी रूप से वास्तविक हैं। छात्रों ने स्कूल बदल दिए, पढ़ाई छोड़ दी, थेरेपी की आवश्यकता पड़ी – यह सब उन पिक्सेल के कारण है जो कभी भी वास्तविकता का प्रतिनिधित्व नहीं करते हैं।
शिक्षा प्रौद्योगिकी विशेषज्ञ एक परेशान करने वाले त्वरण पैटर्न की ओर इशारा करते हैं। 2023 और 2024 की शुरुआती घटनाओं को अलग-अलग मामलों, तकनीक-प्रेमी आउटलेर्स के रूप में माना गया। 2025 तक, उपकरण इतने सुलभ हो गए थे कि घटनाएं कई गुना बढ़ गईं। अब 2026 में, WIRED के डेटा से पता चलता है कि यह स्थानिक हो गया है, नए स्कूल मासिक रूप से मामलों की रिपोर्ट कर रहे हैं। 90 स्कूल और 600 छात्र केवल प्रलेखित मामलों का प्रतिनिधित्व करते हैं – विशेषज्ञों का मानना है कि वास्तविक संख्या काफी अधिक है, क्योंकि कई पीड़ित कभी शर्म या आगे उत्पीड़न के डर से रिपोर्ट नहीं करते हैं।
विधायी प्रतिक्रियाएँ खतरनाक रूप से पीछे रह गई हैं। हालाँकि कुछ न्यायक्षेत्रों ने विशेष रूप से डीपफेक अंतरंग छवियों को अपराध घोषित करने वाले कानून पारित किए हैं, लेकिन प्रवर्तन अभी भी अधूरा है। अन्य नाबालिगों के डीपफेक बनाने वाले नाबालिग विशेष रूप से कांटेदार कानूनी जगह पर कब्जा कर लेते हैं – क्या वे बाल पोर्नोग्राफ़ी निर्माता हैं? धमकाने वाले? दोनों? अलग-अलग अभियोजक अलग-अलग निष्कर्षों पर पहुंच रहे हैं, प्रतिक्रियाओं का एक पैचवर्क तैयार कर रहे हैं जो व्यवहार को रोकने के लिए बहुत कम है।
टेक प्लेटफॉर्म अपने ही विरोधाभासों में फंसे हुए हैं। वही एआई मॉडल जो वैध रचनात्मक उपकरण और फोटो संपादन सुविधाओं को शक्ति प्रदान करते हैं, उन्हें नुकसान पहुंचाने के लिए पुन: उपयोग किया जा सकता है। गूगल का छवि निर्माण क्षमताएं, मेटा का एआई स्टूडियो टूल और विभिन्न डेवलपर्स के ओपन-सोर्स मॉडल में मौलिक तकनीक शामिल है, जो गलत हाथों में होने पर डीपफेक निर्माण को सक्षम बनाती है। कंपनियों ने सामग्री फ़िल्टर और उपयोग नीतियों को लागू किया है, लेकिन निर्धारित उपयोगकर्ता उनके आसपास चले जाते हैं या अनियमित विकल्पों की ओर रुख करते हैं।
जांच से इन उपकरणों के आसपास एक परेशान करने वाले आर्थिक पारिस्थितिकी तंत्र का पता चलता है। कुछ “न्यूडिफाई” ऐप्स सदस्यता मॉडल पर काम करते हैं, जो उपयोगकर्ताओं से असीमित छवि प्रसंस्करण के लिए मासिक शुल्क लेते हैं। अन्य लोग विज्ञापन-समर्थित निःशुल्क स्तरों का उपयोग करते हैं, विज्ञापन राजस्व के माध्यम से उत्पीड़न से लाभ कमाते हैं। भुगतान प्रोसेसर और ऐप स्टोर प्रवर्तन में असंगत साबित हुए हैं – एक प्लेटफ़ॉर्म से प्रतिबंधित ऐप्स बस दूसरे पर स्थानांतरित हो जाते हैं या वेब इंटरफेस के माध्यम से संचालित होते हैं जो ऐप स्टोर की निगरानी को पूरी तरह से बायपास कर देते हैं।
माता-पिता और शिक्षक उस तकनीक के प्रति असहाय महसूस करते हैं जिसे वे पूरी तरह से नहीं समझते हैं। कई स्कूलों ने कक्षा के दौरान फोन पर प्रतिबंध लगाकर प्रतिक्रिया व्यक्त की है, लेकिन यह छात्रों को घर पर एआई टूल तक पहुंचने या एन्क्रिप्टेड मैसेजिंग ऐप्स के माध्यम से उत्पन्न छवियों को साझा करने से नहीं रोकता है। डिजिटल साक्षरता कार्यक्रम इस बात के साथ तालमेल बिठाने के लिए संघर्ष करते हैं कि उपकरण कितनी तेजी से विकसित होते हैं और छात्र सामाजिक नेटवर्क के माध्यम से फैलते हैं।
यह संकट नवप्रवर्तन वेग और सामाजिक तत्परता के बीच एआई विकास में व्यापक तनाव को उजागर करता है। उपभोक्ता एआई उपकरण तीन साल से भी कम समय में नवीनता से संभावित हथियार तक उन्नत हो गए हैं। नुकसान से निपटने के लिए बुनियादी ढाँचा – कानूनी ढाँचा, स्कूल नीतियाँ, प्लेटफ़ॉर्म मॉडरेशन, पीड़ित सहायता प्रणाली – अभी भी बनाया जा रहा है जबकि नुकसान बढ़ रहा है।
समस्या का अध्ययन करने वाले शोधकर्ताओं का कहना है कि डीपफेक का पता लगाने के मौजूदा तरीके जेनरेशन टेक्नोलॉजी के साथ हथियारों की होड़ में उलझे हुए हैं। जब तक फोरेंसिक उपकरण विश्वसनीय रूप से एआई मॉडल की एक पीढ़ी से नकली की पहचान कर सकते हैं, तब तक नए मॉडल पहले ही उन पहचान विधियों को अप्रचलित कर चुके हैं। स्कूल ऐसे तकनीकी समाधान की प्रतीक्षा नहीं कर सकते जो वर्तमान छात्रों की सुरक्षा के लिए समय पर कभी नहीं आएगा।
WIRED द्वारा प्रलेखित 90 स्कूल और 600 छात्र आँकड़ों से कहीं अधिक दर्शाते हैं – वे एक चेतावनी संकेत हैं कि AI का सामाजिक प्रभाव इसे प्रबंधित करने की हमारी क्षमता से आगे निकल गया है। यह कोई ऐसी समस्या नहीं है जो केवल बेहतर एल्गोरिदम या सख्त नीतियों से ही हल हो जाएगी। एआई उन्नति की गति से मेल खाने वाले सुरक्षा उपाय बनाने के लिए तकनीकी कंपनियों, कानून निर्माताओं, शिक्षकों और अभिभावकों के बीच समन्वित कार्रवाई की आवश्यकता है। जब तक ऐसा नहीं होता, इंटरनेट पहुंच वाला प्रत्येक स्कूल संभावित रूप से अगला केस अध्ययन होगा कि शक्तिशाली सुरक्षा के अभाव में शक्तिशाली उपकरण कैसे हथियार बन जाते हैं। सवाल यह नहीं है कि क्या और अधिक छात्रों को इसका शिकार बनाया जाएगा, बल्कि सवाल यह है कि इससे पहले कि हम इसे पहले से ही मौजूद संकट की तरह देखें, कितने और छात्रों को इसका शिकार बनाया जाएगा।









