जज के नियमों के अनुसार, DOGE ने ChatGPT का इस तरह से उपयोग किया जो मूर्खतापूर्ण और अवैध दोनों था

एक संघीय न्यायाधीश ने अभी घोषणा की कि सरकारी दक्षता विभाग ने संवैधानिक सीमाओं को पार कर लिया जब उसने मानविकी अनुदान में $ 100 मिलियन से अधिक की स्क्रीनिंग और रद्द करने के लिए चैटजीपीटी को तैनात किया। गुरुवार को जारी 143 पन्नों के एक तीखे फैसले में, अमेरिकी जिला न्यायाधीश कोलीन मैकमोहन ने पाया कि विविधता, समानता और समावेशन (डीईआई) कार्यक्रमों की पहचान के लिए डीओजीई की एआई-संचालित प्रक्रिया असंवैधानिक भेदभाव के बराबर है। यह निर्णय मानव निरीक्षण के बिना परिणामी निर्णय लेने के लिए एआई टूल का उपयोग करने वाली सरकारी एजेंसियों की पहली बड़ी कानूनी फटकार में से एक है।

ओपनएआईएक ऐतिहासिक संवैधानिक मामले में चैटजीपीटी सिर्फ प्रदर्शनी ए बन गया। सरकारी दक्षता विभाग – नवगठित एजेंसी जिसे संघीय खर्च में कटौती करने का काम सौंपा गया था – ने सोचा कि उसे सही दक्षता उपकरण मिल गया है: एक एआई जो हजारों अनुदान आवेदनों को स्कैन कर सकता है और विविधता कार्यक्रमों से संबंधित किसी भी चीज को चिह्नित कर सकता है। पता चला, यह कानूनी रूप से विनाशकारी और संवैधानिक रूप से निषिद्ध दोनों था।

अमेरिकी जिला न्यायाधीश कोलीन मैकमोहन ने शब्दों में कोई कमी नहीं की उनका 143 पेज का फैसला गुरुवार को जारी किया गया। सत्तारूढ़ ने मानविकी के लिए राष्ट्रीय बंदोबस्ती से अनुदान को समाप्त करने के लिए DOGE के संपूर्ण दृष्टिकोण को नष्ट कर दिया, यह पाते हुए कि एजेंसी ने “निरंतर वित्त पोषण से अनुदान को अयोग्य घोषित करने के लिए विशेष, संरक्षित विशेषताओं की उपस्थिति का उपयोग किया।” इस प्रक्रिया में 100 मिलियन डॉलर से अधिक का स्वीकृत अनुदान ख़त्म हो गया।

यहां बताया गया है कि कैसे DOGE का AI प्रयोग किनारे चला गया। मानव विशेषज्ञों से वास्तविक योग्यता या अनुपालन मुद्दों के लिए अनुदान आवेदनों की समीक्षा कराने के बजाय, एजेंसी ने इसमें विवरण भर दिया चैटजीपीटी विविधता, समानता और समावेशन विषयों को छूने वाली किसी भी चीज़ की पहचान करने के निर्देशों के साथ। एआई ने कार्यक्रमों को चिह्नित किया। DOGE ने फंडिंग रद्द कर दी। कोई अपील प्रक्रिया नहीं, संदर्भ की कोई मानवीय समीक्षा नहीं, इस बात पर कोई विचार नहीं कि क्या चिह्नित सामग्री वास्तव में समस्याग्रस्त थी या वैध अनुसंधान के हिस्से के रूप में जनसांख्यिकी का उल्लेख किया गया था।

से मामला सामने आया मानविकी संगठनों द्वारा दायर 2025 का मुकदमा जिनका अनुदान रातोरात गायब हो गया। जब वकीलों ने DOGE की प्रक्रिया की खोज शुरू की, तो उन्हें चैटजीपीटी वर्कफ़्लो दिखाने वाले आंतरिक दस्तावेज़ मिले। यह रहस्योद्घाटन हुआ कि एक बड़ा भाषा मॉडल – इंटरनेट पाठ पर प्रशिक्षित और असंगत आउटपुट के लिए प्रवृत्त – संवैधानिक अधिकारों के बारे में बाध्यकारी निर्णय ले रहा था, जिससे तत्काल कानूनी चुनौतियाँ पैदा हुईं।

दारुम गिब्ट्स डू बेई एल्डी, लिडल एंड कंपनी मेहर गेल्ड एज़ एज़ गेप्लांट

न्यायाधीश मैकमोहन का फैसला सिर्फ इस विशिष्ट मामले से आगे जाता है। वह स्थापित करती है कि उचित सुरक्षा उपायों के बिना संरक्षित विशेषताओं की जांच के लिए एआई का उपयोग करना समान सुरक्षा सिद्धांतों का उल्लंघन करता है, तब भी जब एजेंसी औचित्य के रूप में दक्षता का दावा करती है। निर्णय में कहा गया है, “संविधान में एल्गोरिथम सुविधा के लिए कोई अपवाद नहीं है,” संघीय एजेंसियां ​​​​एआई उपकरण कैसे तैनात कर सकती हैं और कैसे नहीं, इसके लिए संभावित मिसाल कायम करती हैं।

एआई उद्योग के लिए यह समय इससे अधिक महत्वपूर्ण नहीं हो सकता। ओपनएआई नौकरशाही कार्यों के लिए उत्पादकता गुणक के रूप में प्रौद्योगिकी को स्थापित करते हुए, सरकारी ग्राहकों के लिए चैटजीपीटी एंटरप्राइज की आक्रामक मार्केटिंग कर रहा है। लेकिन यह फैसला एआई की पैटर्न-मिलान क्षमताओं और नागरिक अधिकारों को प्रभावित करने वाले निर्णयों के लिए आवश्यक सूक्ष्म निर्णय के बीच अंतर को उजागर करता है। एक चैटबॉट जो ईमेल का मसौदा तैयार करने में सहायक होता है, संवैधानिक मामलों पर अधिकार दिए जाने पर कानूनी रूप से विषाक्त हो जाता है।

DOGE का बचाव तर्क – कि वे मौजूदा DEI विरोधी कार्यकारी आदेशों को लागू करने के लिए केवल आधुनिक उपकरणों का उपयोग कर रहे थे – अदालत के सामने विफल हो गया। मैकमोहन ने कहा कि भले ही DEI कार्यक्रमों को ख़त्म करना एक वैध लक्ष्य था, फिर भी तरीका मायने रखता है। व्यक्तिगत समीक्षा के बिना सामग्री-आधारित भेदभाव को संचालित करने के लिए एआई का उपयोग करना नीति प्रवर्तन से संवैधानिक उल्लंघन की सीमा को पार कर जाता है।

नतीजा रद्द किए गए अनुदानों को बहाल करने से कहीं आगे तक फैला हुआ है। संघीय एजेंसियां ​​जो वीज़ा आवेदनों से लेकर अनुबंध समीक्षा तक हर चीज़ के लिए एआई स्क्रीनिंग टूल अपनाने में जल्दबाजी करती थीं, अब अपने कानूनी जोखिम का पुनर्मूल्यांकन कर रही हैं। फैसले से पता चलता है कि जब भी एआई सिस्टम संरक्षित वर्गों – जाति, लिंग, राष्ट्रीय मूल – को छूते हुए निर्णय लेते हैं – एजेंसियों को मजबूत मानव निरीक्षण और स्पष्ट संवैधानिक रेलिंग की आवश्यकता होती है।

के लिए ओपनएआईमामला एक असुविधाजनक वास्तविकता की जाँच प्रस्तुत करता है। कंपनी ने चैटजीपीटी को उद्यम और सरकारी तैनाती के लिए तैयार रखा है, लेकिन जब ग्राहक उच्च जोखिम वाले निर्णयों के लिए टूल का उपयोग करते हैं तो सार्वजनिक रूप से दायित्व संबंधी प्रश्नों को संबोधित नहीं किया है। यह फैसला ओपनएआई को सीधे तौर पर दोषी नहीं ठहराता है, लेकिन यह दर्शाता है कि उचित शासन ढांचे के बिना तैनात किए जाने पर उनकी तकनीक भेदभावपूर्ण परिणामों को कैसे बढ़ा सकती है।

कानूनी विशेषज्ञ पहले से ही इसकी तुलना पहले के मामलों से कर रहे हैं जहां आपराधिक न्याय और ऋण देने में एल्गोरिथम निर्णय लेने को संवैधानिक चुनौतियों का सामना करना पड़ा था। लेकिन DOGE की ChatGPT पराजय यकीनन अधिक बेशर्म है – एजेंसी ने स्पष्ट रूप से AI के वर्गीकरण को मान्य करने या मानव समीक्षा चौकियों के निर्माण के लिए कोई प्रयास नहीं किया। यह सरकारी स्वचालन अपने सबसे लापरवाह स्तर पर है।

सेल्फ-ड्राइविंग दुर्घटनाओं के लिए उबर पार्टनर एवराइड की जांच चल रही है

व्यावहारिक प्रभाव तुरंत पड़ता है. यदि वे एनईएच फंडिंग की जांच जारी रखना चाहते हैं तो DOGE को अब अनुदान रद्दीकरण को वापस लेना होगा और एक संवैधानिक समीक्षा प्रक्रिया स्थापित करनी होगी। अधिक व्यापक रूप से, परिणामी निर्णयों के लिए एआई उपकरणों का उपयोग करने या उन पर विचार करने वाली प्रत्येक संघीय एजेंसी को एक स्पष्ट चेतावनी मिली है: दक्षता लाभ संवैधानिक आवश्यकताओं से अधिक नहीं है, और अदालतें नागरिकों के अधिकारों पर वास्तविक प्रभावों की जांच करने के लिए प्रौद्योगिकी प्रचार पर गौर करेंगी।

यह निर्णय सरकारी कार्यों में एआई तैनाती के लिए एक महत्वपूर्ण सीमा स्थापित करता है। हालाँकि एजेंसियां ​​दक्षता हासिल करने के लिए ChatGPT जैसे टूल को अपनाना जारी रखेंगी, लेकिन वे सुरक्षा उपायों के बिना एल्गोरिदम को संवैधानिक निर्णय लेने का आउटसोर्स नहीं कर सकती हैं। व्यापक एआई उद्योग के लिए, यह एक चेतावनी है कि उद्यम ग्राहकों – विशेष रूप से सरकारी एजेंसियों – को केवल शक्तिशाली मॉडल से कहीं अधिक की आवश्यकता है। उन्हें ऐसे शासन ढांचे की आवश्यकता है जो उनके दक्षता उपकरणों को दायित्व इंजन बनने से रोके। DOGE के प्रयोग से पता चलता है कि क्या होता है जब प्रौद्योगिकीविद् भूल जाते हैं कि कुछ निर्णयों के लिए मानवीय निर्णय, कानूनी विशेषज्ञता और संवैधानिक जागरूकता की आवश्यकता होती है जिसे कोई भी चैटबॉट दोहरा नहीं सकता है।