जज के नियमों के अनुसार, DOGE ने ChatGPT का इस तरह से उपयोग किया जो मूर्खतापूर्ण और अवैध दोनों था

एक संघीय न्यायाधीश ने अभी घोषणा की कि सरकारी दक्षता विभाग ने संवैधानिक सीमाओं को पार कर लिया जब उसने मानविकी अनुदान में $ 100 मिलियन से अधिक की स्क्रीनिंग और रद्द करने के लिए चैटजीपीटी को तैनात किया। गुरुवार को जारी 143 पन्नों के एक तीखे फैसले में, अमेरिकी जिला न्यायाधीश कोलीन मैकमोहन ने पाया कि विविधता, समानता और समावेशन (डीईआई) कार्यक्रमों की पहचान के लिए डीओजीई की एआई-संचालित प्रक्रिया असंवैधानिक भेदभाव के बराबर है। यह निर्णय मानव निरीक्षण के बिना परिणामी निर्णय लेने के लिए एआई टूल का उपयोग करने वाली सरकारी एजेंसियों की पहली बड़ी कानूनी फटकार में से एक है।

ओपनएआईएक ऐतिहासिक संवैधानिक मामले में चैटजीपीटी सिर्फ प्रदर्शनी ए बन गया। सरकारी दक्षता विभाग – नवगठित एजेंसी जिसे संघीय खर्च में कटौती करने का काम सौंपा गया था – ने सोचा कि उसे सही दक्षता उपकरण मिल गया है: एक एआई जो हजारों अनुदान आवेदनों को स्कैन कर सकता है और विविधता कार्यक्रमों से संबंधित किसी भी चीज को चिह्नित कर सकता है। पता चला, यह कानूनी रूप से विनाशकारी और संवैधानिक रूप से निषिद्ध दोनों था।

अमेरिकी जिला न्यायाधीश कोलीन मैकमोहन ने शब्दों में कोई कमी नहीं की उनका 143 पेज का फैसला गुरुवार को जारी किया गया। सत्तारूढ़ ने मानविकी के लिए राष्ट्रीय बंदोबस्ती से अनुदान को समाप्त करने के लिए DOGE के संपूर्ण दृष्टिकोण को नष्ट कर दिया, यह पाते हुए कि एजेंसी ने “निरंतर वित्त पोषण से अनुदान को अयोग्य घोषित करने के लिए विशेष, संरक्षित विशेषताओं की उपस्थिति का उपयोग किया।” इस प्रक्रिया में 100 मिलियन डॉलर से अधिक का स्वीकृत अनुदान ख़त्म हो गया।

यहां बताया गया है कि कैसे DOGE का AI प्रयोग किनारे चला गया। मानव विशेषज्ञों से वास्तविक योग्यता या अनुपालन मुद्दों के लिए अनुदान आवेदनों की समीक्षा कराने के बजाय, एजेंसी ने इसमें विवरण भर दिया चैटजीपीटी विविधता, समानता और समावेशन विषयों को छूने वाली किसी भी चीज़ की पहचान करने के निर्देशों के साथ। एआई ने कार्यक्रमों को चिह्नित किया। DOGE ने फंडिंग रद्द कर दी। कोई अपील प्रक्रिया नहीं, संदर्भ की कोई मानवीय समीक्षा नहीं, इस बात पर कोई विचार नहीं कि क्या चिह्नित सामग्री वास्तव में समस्याग्रस्त थी या वैध अनुसंधान के हिस्से के रूप में जनसांख्यिकी का उल्लेख किया गया था।

से मामला सामने आया मानविकी संगठनों द्वारा दायर 2025 का मुकदमा जिनका अनुदान रातोरात गायब हो गया। जब वकीलों ने DOGE की प्रक्रिया की खोज शुरू की, तो उन्हें चैटजीपीटी वर्कफ़्लो दिखाने वाले आंतरिक दस्तावेज़ मिले। यह रहस्योद्घाटन हुआ कि एक बड़ा भाषा मॉडल – इंटरनेट पाठ पर प्रशिक्षित और असंगत आउटपुट के लिए प्रवृत्त – संवैधानिक अधिकारों के बारे में बाध्यकारी निर्णय ले रहा था, जिससे तत्काल कानूनी चुनौतियाँ पैदा हुईं।

Spaß garantiert – besonders in der Stadt

न्यायाधीश मैकमोहन का फैसला सिर्फ इस विशिष्ट मामले से आगे जाता है। वह स्थापित करती है कि उचित सुरक्षा उपायों के बिना संरक्षित विशेषताओं की जांच के लिए एआई का उपयोग करना समान सुरक्षा सिद्धांतों का उल्लंघन करता है, तब भी जब एजेंसी औचित्य के रूप में दक्षता का दावा करती है। निर्णय में कहा गया है, “संविधान में एल्गोरिथम सुविधा के लिए कोई अपवाद नहीं है,” संघीय एजेंसियां ​​​​एआई उपकरण कैसे तैनात कर सकती हैं और कैसे नहीं, इसके लिए संभावित मिसाल कायम करती हैं।

एआई उद्योग के लिए यह समय इससे अधिक महत्वपूर्ण नहीं हो सकता। ओपनएआई नौकरशाही कार्यों के लिए उत्पादकता गुणक के रूप में प्रौद्योगिकी को स्थापित करते हुए, सरकारी ग्राहकों के लिए चैटजीपीटी एंटरप्राइज की आक्रामक मार्केटिंग कर रहा है। लेकिन यह फैसला एआई की पैटर्न-मिलान क्षमताओं और नागरिक अधिकारों को प्रभावित करने वाले निर्णयों के लिए आवश्यक सूक्ष्म निर्णय के बीच अंतर को उजागर करता है। एक चैटबॉट जो ईमेल का मसौदा तैयार करने में सहायक होता है, संवैधानिक मामलों पर अधिकार दिए जाने पर कानूनी रूप से विषाक्त हो जाता है।

DOGE का बचाव तर्क – कि वे मौजूदा DEI विरोधी कार्यकारी आदेशों को लागू करने के लिए केवल आधुनिक उपकरणों का उपयोग कर रहे थे – अदालत के सामने विफल हो गया। मैकमोहन ने कहा कि भले ही DEI कार्यक्रमों को ख़त्म करना एक वैध लक्ष्य था, फिर भी तरीका मायने रखता है। व्यक्तिगत समीक्षा के बिना सामग्री-आधारित भेदभाव को संचालित करने के लिए एआई का उपयोग करना नीति प्रवर्तन से संवैधानिक उल्लंघन की सीमा को पार कर जाता है।

नतीजा रद्द किए गए अनुदानों को बहाल करने से कहीं आगे तक फैला हुआ है। संघीय एजेंसियां ​​जो वीज़ा आवेदनों से लेकर अनुबंध समीक्षा तक हर चीज़ के लिए एआई स्क्रीनिंग टूल अपनाने में जल्दबाजी करती थीं, अब अपने कानूनी जोखिम का पुनर्मूल्यांकन कर रही हैं। फैसले से पता चलता है कि जब भी एआई सिस्टम संरक्षित वर्गों – जाति, लिंग, राष्ट्रीय मूल – को छूते हुए निर्णय लेते हैं – एजेंसियों को मजबूत मानव निरीक्षण और स्पष्ट संवैधानिक रेलिंग की आवश्यकता होती है।

के लिए ओपनएआईमामला एक असुविधाजनक वास्तविकता की जाँच प्रस्तुत करता है। कंपनी ने चैटजीपीटी को उद्यम और सरकारी तैनाती के लिए तैयार रखा है, लेकिन जब ग्राहक उच्च जोखिम वाले निर्णयों के लिए टूल का उपयोग करते हैं तो सार्वजनिक रूप से दायित्व संबंधी प्रश्नों को संबोधित नहीं किया है। यह फैसला ओपनएआई को सीधे तौर पर दोषी नहीं ठहराता है, लेकिन यह दर्शाता है कि उचित शासन ढांचे के बिना तैनात किए जाने पर उनकी तकनीक भेदभावपूर्ण परिणामों को कैसे बढ़ा सकती है।

कानूनी विशेषज्ञ पहले से ही इसकी तुलना पहले के मामलों से कर रहे हैं जहां आपराधिक न्याय और ऋण देने में एल्गोरिथम निर्णय लेने को संवैधानिक चुनौतियों का सामना करना पड़ा था। लेकिन DOGE की ChatGPT पराजय यकीनन अधिक बेशर्म है – एजेंसी ने स्पष्ट रूप से AI के वर्गीकरण को मान्य करने या मानव समीक्षा चौकियों के निर्माण के लिए कोई प्रयास नहीं किया। यह सरकारी स्वचालन अपने सबसे लापरवाह स्तर पर है।

टीवी के लिए क्यूडी बनाने वाली कंपनी का कहना है कि क्वांटम डॉट टीवी ने आरजीबी एलईडी टीवी को मात दी है

व्यावहारिक प्रभाव तुरंत पड़ता है. यदि वे एनईएच फंडिंग की जांच जारी रखना चाहते हैं तो DOGE को अब अनुदान रद्दीकरण को वापस लेना होगा और एक संवैधानिक समीक्षा प्रक्रिया स्थापित करनी होगी। अधिक व्यापक रूप से, परिणामी निर्णयों के लिए एआई उपकरणों का उपयोग करने या उन पर विचार करने वाली प्रत्येक संघीय एजेंसी को एक स्पष्ट चेतावनी मिली है: दक्षता लाभ संवैधानिक आवश्यकताओं से अधिक नहीं है, और अदालतें नागरिकों के अधिकारों पर वास्तविक प्रभावों की जांच करने के लिए प्रौद्योगिकी प्रचार पर गौर करेंगी।

यह निर्णय सरकारी कार्यों में एआई तैनाती के लिए एक महत्वपूर्ण सीमा स्थापित करता है। हालाँकि एजेंसियां ​​दक्षता हासिल करने के लिए ChatGPT जैसे टूल को अपनाना जारी रखेंगी, लेकिन वे सुरक्षा उपायों के बिना एल्गोरिदम को संवैधानिक निर्णय लेने का आउटसोर्स नहीं कर सकती हैं। व्यापक एआई उद्योग के लिए, यह एक चेतावनी है कि उद्यम ग्राहकों – विशेष रूप से सरकारी एजेंसियों – को केवल शक्तिशाली मॉडल से कहीं अधिक की आवश्यकता है। उन्हें ऐसे शासन ढांचे की आवश्यकता है जो उनके दक्षता उपकरणों को दायित्व इंजन बनने से रोके। DOGE के प्रयोग से पता चलता है कि क्या होता है जब प्रौद्योगिकीविद् भूल जाते हैं कि कुछ निर्णयों के लिए मानवीय निर्णय, कानूनी विशेषज्ञता और संवैधानिक जागरूकता की आवश्यकता होती है जिसे कोई भी चैटबॉट दोहरा नहीं सकता है।