सोमवार को, एंथ्रोपिक ने आपूर्ति श्रृंखला जोखिम के रूप में नामित होने पर रक्षा विभाग के खिलाफ अपना मुकदमा दायर किया। कुछ घंटों बाद, OpenAI और Google के लगभग 40 कर्मचारी – जिनमें जेफ डीन, Google के मुख्य वैज्ञानिक और जेमिनी लीड शामिल थे – एंथ्रोपिक के मुकदमे के समर्थन में एक एमिकस ब्रीफ़ दायर कियाट्रम्प प्रशासन के निर्णय और प्रौद्योगिकी के जोखिमों और निहितार्थों पर उनकी चिंताओं का विवरण दिया गया।
एंथ्रोपिक के लिए यह खबर कुछ हफ्तों के नाटकीय घटनाक्रम के बाद आई है, जिसमें ट्रम्प प्रशासन ने कंपनी को आपूर्ति श्रृंखला जोखिम का लेबल दिया था – एक पदनाम जो आमतौर पर विदेशी कंपनियों के लिए आरक्षित है, जिसे सरकार किसी तरह से राष्ट्रीय सुरक्षा के लिए संभावित जोखिम मानती है – एंथ्रोपिक द्वारा अपनी प्रौद्योगिकी के सैन्य उपयोग के लिए स्वीकार्य उपयोग के मामलों के संबंध में दो लाल रेखाओं पर दृढ़ रहने के बाद: घरेलू सामूहिक निगरानी और पूरी तरह से स्वायत्त हथियार (या बिना किसी मानवीय भागीदारी के मारने की शक्ति वाले एआई सिस्टम)। सार्वजनिक अपमान के बाद बातचीत टूट गई और अन्य एआई कंपनियों ने अपनी तकनीक के “किसी भी वैध उपयोग” की अनुमति देने वाले अनुबंध पर हस्ताक्षर करने के लिए कदम उठाया।
आपूर्ति श्रृंखला जोखिम पदनाम न केवल एंथ्रोपिक को सैन्य अनुबंधों पर काम करने से रोकता है, बल्कि यह अन्य कंपनियों को भी काली सूची में डाल देता है यदि वे पेंटागन के लिए अपने कार्य क्षेत्र में एंथ्रोपिक उत्पादों का उपयोग करते हैं, और यदि वे अपने आकर्षक अनुबंधों को बनाए रखना चाहते हैं तो उन्हें क्लाउड को उखाड़ फेंकने के लिए मजबूर किया जाता है। जैसा कि पहले मॉडल को वर्गीकृत खुफिया जानकारी के लिए मंजूरी दे दी गई है, हालांकि, एंथ्रोपिक के उपकरण पहले से ही पेंटागन के काम में गहराई से एकीकृत हैं – इतना अधिक कि रक्षा सचिव पीट हेगसेथ द्वारा पदनाम की घोषणा के कुछ ही घंटों बाद, अमेरिकी सेना ने कथित तौर पर उस अभियान में क्लाउड का इस्तेमाल किया, जिसमें ईरान के नेता अयातुल्ला अली खामेनेई की हत्या हुई थी।
एमिकस ब्रीफ में यह कहना चाहा गया है कि एंथ्रोपिक की आपूर्ति श्रृंखला जोखिम पदनाम “अनुचित प्रतिशोध है जो सार्वजनिक हित को नुकसान पहुंचाता है” और एंथ्रोपिक की लाल रेखाओं के पीछे की चिंताएं “वास्तविक हैं और प्रतिक्रिया की आवश्यकता है।” इससे यह भी पता चलता है कि एंथ्रोपिक की दो लाल रेखाएं फिर से देखने लायक हैं, जिसमें कहा गया है कि “एआई द्वारा संचालित बड़े पैमाने पर घरेलू निगरानी लोकतांत्रिक शासन के लिए गहरा जोखिम पैदा करती है – यहां तक कि जिम्मेदार हाथों में भी” और “पूरी तरह से स्वायत्त घातक हथियार प्रणालियां ऐसे जोखिम पेश करती हैं जिन्हें संबोधित किया जाना चाहिए।”
एमिकस ब्रीफ के पीछे समूह ने खुद को “अमेरिकी सीमांत कृत्रिम बुद्धिमत्ता प्रयोगशालाओं में कार्यरत इंजीनियरों, शोधकर्ताओं, वैज्ञानिकों और अन्य पेशेवरों” के रूप में वर्णित किया।
समूह ने लिखा, “हम बड़े पैमाने पर एआई सिस्टम का निर्माण, प्रशिक्षण और अध्ययन करते हैं जो राष्ट्रीय सुरक्षा, कानून प्रवर्तन और सैन्य संचालन के परिणामी डोमेन सहित उपयोगकर्ताओं और तैनाती की एक विस्तृत श्रृंखला की सेवा करते हैं।” “हम यह विवरण किसी एक कंपनी के प्रवक्ता के रूप में नहीं, बल्कि अपनी व्यक्तिगत क्षमताओं में पेशेवरों के रूप में प्रस्तुत करते हैं, जिन्हें इस बात का प्रत्यक्ष ज्ञान है कि ये सिस्टम क्या कर सकते हैं और क्या नहीं, और जब उनकी तैनाती उन्हें नियंत्रित करने के लिए डिज़ाइन किए गए कानूनी और नैतिक ढांचे से आगे निकल जाती है तो क्या दांव पर लगता है।”
घरेलू व्यापक निगरानी के मोर्चे पर, समूह ने कहा कि हालांकि अमेरिकी नागरिकों का डेटा निगरानी कैमरे, जियोलोकेशन डेटा, सोशल मीडिया पोस्ट, वित्तीय लेनदेन और बहुत कुछ के रूप में हर जगह मौजूद है, “जो अभी तक मौजूद नहीं है वह एआई परत है जो इस विशाल, खंडित डेटा परिदृश्य को एक एकीकृत, वास्तविक समय निगरानी तंत्र में बदल देती है।” अभी, उन्होंने लिखा है, ये डेटा स्ट्रीम साइलो हैं, लेकिन अगर इन्हें कनेक्ट करने के लिए एआई का उपयोग किया जाता है, तो यह “चेहरा पहचान डेटा को स्थान इतिहास, लेनदेन रिकॉर्ड, सामाजिक ग्राफ़ और करोड़ों लोगों के व्यवहार पैटर्न के साथ एक साथ जोड़ सकता है।”
जब विशेष रूप से घातक स्वायत्त हथियारों की बात आती है, तो समूह ने कहा कि वे नई या अस्पष्ट परिस्थितियों में अविश्वसनीय हो सकते हैं जो उस वातावरण के साथ संरेखित नहीं होते हैं जिसमें उन्हें प्रशिक्षित किया गया था – जिसका अर्थ है कि उन पर “पूर्ण सटीकता के साथ लक्ष्य की पहचान करने के लिए भरोसा नहीं किया जा सकता है, और वे एक उद्देश्य को प्राप्त करने और संपार्श्विक प्रभावों के लिए लेखांकन के बीच सूक्ष्म प्रासंगिक व्यापार करने में असमर्थ हैं जो एक मानव कर सकता है।” इसके अतिरिक्त, समूह ने लिखा, घातक स्वायत्त हथियार प्रणालियों की मतिभ्रम की क्षमता का मतलब है कि मनुष्यों के लिए निर्णय लेने की प्रक्रिया में शामिल होना महत्वपूर्ण है “मानव लक्ष्य पर घातक गोला बारूद लॉन्च करने से पहले” – खासकर जब से सिस्टम की तर्क श्रृंखला अक्सर ऑपरेटरों के लिए उपलब्ध नहीं होती है और सिस्टम के डेवलपर्स के लिए भी अस्पष्ट होती है।
एमिकस ब्रीफ के पीछे समूह ने लिखा, “हम अपनी राजनीति और दर्शन में विविध हैं, लेकिन हम इस दृढ़ विश्वास में एकजुट हैं कि आज के सीमांत एआई सिस्टम घरेलू बड़े पैमाने पर निगरानी या मानव निरीक्षण के बिना स्वायत्त घातक हथियार प्रणालियों के संचालन को सक्षम करने के लिए तैनात किए जाने पर जोखिम पेश करते हैं, और उन जोखिमों के लिए कुछ प्रकार की रेलिंग की आवश्यकता होती है, चाहे तकनीकी सुरक्षा उपायों के माध्यम से या उपयोग प्रतिबंधों के माध्यम से।”









