एंथ्रोपिक का अद्यतन संविधान एआई सुरक्षा को क्लाउड के हाथों में रखता है
प्रकाशित: शुक्र, फ़रवरी 6, 2026, 5:19 अपराह्न यूटीसी | अद्यतन: शनिवार, फरवरी 7, 2026, 4:00 अपराह्न यूटीसी

- ■
anthropic एक संशोधित “क्लाउड संविधान” प्रकाशित किया जो सख्त नियमों का पालन करने के बजाय ज्ञान और नैतिक निर्णय विकसित करने के लिए एआई मॉडल पर निर्भर करता है
- ■
प्रमुख लेखिका अमांडा एस्केल का कहना है कि क्लाउड “एक विशेष प्रकार की बुद्धिमत्ता में सक्षम है” और अंततः मानवता के सर्वोत्तम नैतिक तर्क से आगे निकल सकता है
- ■
यह दृष्टिकोण एंथ्रोपिक के मुख्य विरोधाभास को संबोधित करता है: सुरक्षा को बाकी सब से ऊपर प्राथमिकता देने का दावा करते हुए संभावित खतरनाक एआई का निर्माण करना
- ■
anthropic अभी-अभी एआई के अस्तित्व संबंधी विरोधाभास पर अपना उत्तर प्रकट किया है: मानवता को नष्ट न करने के तरीके का पता लगाने के लिए क्लाउड पर ही भरोसा करें। कंपनी ने एक अद्यतन “क्लाउड संविधान” प्रकाशित किया है जो अपने एआई मॉडल को “स्वतंत्र निर्णय” का अभ्यास करने और अपना स्वयं का ज्ञान विकसित करने के लिए सिखाने के पक्ष में कठोर नियम पुस्तिकाओं को हटा देता है। यह एक उल्लेखनीय जुआ है – जैसे कि एंथ्रोपिक अधिक शक्तिशाली एआई की ओर प्रतियोगियों को दौड़ाता है, यह फार्म पर दांव लगा रहा है कि क्लाउड उन खतरों से निपटने के लिए पर्याप्त रूप से परिष्कृत नैतिक तर्क सीख सकता है जिसकी कंपनी ने अभी तक कल्पना भी नहीं की है।
anthropic अभी-अभी एक आश्चर्यजनक स्वीकारोक्ति की: वह कंपनी जो एआई सुरक्षा के बारे में बात करना कभी बंद नहीं करती, वह अपने एआई मॉडल को स्वयं सुरक्षा का पता लगाने की योजना बना रही है।
स्टार्टअप ने जनवरी में दो खुलासा करने वाले दस्तावेज़ प्रकाशित किए जो एआई जोखिमों की विशालता और उन्हें संबोधित करने के लिए एंथ्रोपिक की अपरंपरागत योजना दोनों को उजागर करते हैं। सीईओ डारियो अमोदेई का निबंध “प्रौद्योगिकी की किशोरावस्था” दुःस्वप्न परिदृश्यों को सूचीबद्ध करने में 20,000 से अधिक शब्द खर्च किए – सत्तावादी दुर्व्यवहार, अस्तित्व संबंधी खतरे, जिसे वह “अनंत का काला समुद्र” कहते हैं। यह उनके पिछले प्रोटो-यूटोपियन टुकड़े से एक नाटकीय टोनल बदलाव है।प्रेमपूर्ण अनुग्रह की मशीनें“जिसने डेटा केंद्रों में प्रतिभावान राष्ट्रों की कल्पना की थी।
लेकिन यह दूसरा दस्तावेज़ है जो बताता है कि एन्थ्रोपिक किस प्रकार इस सुई में धागा पिरोने की योजना बना रहा है। “क्लाउड का संविधान” इसे एक तकनीकी विशिष्टता की तरह कम और एआई मॉडल को सीधे संबोधित एक दार्शनिक घोषणापत्र की तरह अधिक पढ़ा जाता है। संदेश: क्लाउड, हमने आपको सिखाया है कि हम क्या कर सकते हैं, अब आगे बढ़ें और बाकी को अपने आप समझ लें।
संवैधानिक संशोधन का नेतृत्व करने वाली दर्शनशास्त्र की पीएचडी अमांडा एस्केल इस बारे में कुछ भी नहीं बोल रही हैं कि एंथ्रोपिक क्लाउड से क्या अपेक्षा करता है। उन्होंने बताया, “मुझे लगता है कि क्लाउड निश्चित रूप से एक खास तरह की बुद्धिमत्ता में सक्षम है।” वायर्ड. केवल योग्यता या सटीकता नहीं – वास्तविक ज्ञान।
अद्यतन संविधान ने प्रारंभिक संस्करण के उधार दस्तावेजों के संग्रह को हटा दिया है – डीपमाइंड के नस्लवाद-विरोधी स्पैरो सिद्धांतों से लेकर ऐप्पल की सेवा की शर्तों तक सब कुछ – क्लाउड को “स्वतंत्र निर्णय” का अभ्यास करने के लिए सिखाने के पक्ष में। मॉडल से अपेक्षा की जाती है कि वह मदद, सुरक्षा और ईमानदारी की प्रतिस्पर्धी मांगों को बिना किसी कठोर नियम पुस्तिका के बताए कि वास्तव में क्या करना है, को संतुलित करेगा।
आस्केल द्वारा वर्णित एक परिदृश्य पर विचार करें: कोई क्लाउड से पूछता है कि नए स्टील से चाकू कैसे बनाया जाता है। उसके चेहरे पर हानिरहित अनुरोध, और क्लाउड को मदद करनी चाहिए। लेकिन क्या होगा यदि उसी उपयोगकर्ता ने पहले उल्लेख किया हो कि वह अपनी बहन को मारना चाहता है? ऐसी जानकारी को कब अस्वीकार करना है इसके लिए कोई सरल नियम नहीं है। क्लाउड को तुरंत संदर्भ, इरादे और जोखिम को तौलना होगा।
या कल्पना करें कि क्लाउड चिकित्सा लक्षणों का विश्लेषण कर रहा है और यह निष्कर्ष निकाल रहा है कि उपयोगकर्ता को कोई घातक बीमारी है। क्या इसे निदान देना चाहिए? उन्हें डॉक्टर की ओर प्रेरित करें? बातचीत का मार्गदर्शन करें ताकि समाचार धीरे-धीरे पहुँचे? एस्केल बताते हैं, “हम कोशिश कर रहे हैं कि क्लॉड कम से कम इस समय जो कुछ हम जानते हैं उसका सर्वोत्तम अनुकरण करें।” “अभी, हम लगभग इस बिंदु पर हैं कि सर्वश्रेष्ठ इंसानों से मेल खाने वाले मॉडल कैसे प्राप्त करें। किसी बिंदु पर, क्लाउड उससे भी बेहतर हो सकता है।”
वह अंतिम भाग किकर है। एंथ्रोपिक सिर्फ यह नहीं चाहता कि क्लाउड मानवता के नैतिक तर्क से मेल खाए – वह चाहता है कि एआई इससे आगे बढ़े। संविधान ऐसी भाषा का उपयोग करता है जो लगभग एक नायक की खोज की तरह लगती है, क्लाउड को एक नैतिक व्यक्ति के रूप में स्थापित करती है जिसका “कल्याण सम्मान की मांग करता है।” आस्केल ने इसकी तुलना डॉ. सीस के “ओह, द प्लेसेस यू विल गो!” से की। – दुनिया में कदम रखने के बारे में वह उत्साहवर्धक स्नातक उपहार। वह कहती हैं, “हमने क्लॉड को जितना हो सके उतना संदर्भ देते हुए यह हिस्सा किया है और फिर इसे लोगों के साथ बातचीत करना और काम करना है।”
यह दृष्टिकोण एंथ्रोपिक का उस विरोधाभास का उत्तर है जो हर एआई प्रयोगशाला में व्याप्त है: यदि आपको लगता है कि यह तकनीक इतनी खतरनाक है, तो आप इसे क्यों बना रहे हैं? प्रतिक्रिया: क्लाउड में हम भरोसा करते हैं।
anthropic मानवता के भविष्य को संवारने के लिए एआई ज्ञान पर दांव लगाने वाला भारत अकेला नहीं है। ओपनएआई सीईओ सैम ऑल्टमैन ने WIRED रिपोर्टर मैक्स ज़िफ को बताया कि एआई कोडिंग में हाल के सुधारों ने एआई सीईओ को नेतृत्व सौंपने की उनकी समयसीमा को तेज कर दिया है। ऑल्टमैन ने कहा, “इसने मुझे निश्चित रूप से यह सोचने पर मजबूर कर दिया है कि एआई सीईओ को चीजें सौंपने की समयसीमा थोड़ी जल्दी है।” फ़ोर्ब्स प्रोफ़ाइल. “ऐसी बहुत सी चीजें हैं जो एक एआई सीईओ कर सकता है जो एक मानव सीईओ नहीं कर सकता।”
एआई के भविष्य की आशावादी दृष्टि में निगमों और संभवतः सरकारों को चलाने वाले रोबोट बॉस शामिल हैं, जो छंटनी और संसाधन आवंटन के बारे में निर्णय लेते हैं, उम्मीद है कि उन मानव अधिकारियों की तुलना में अधिक सहानुभूति के साथ जो वर्तमान में उन कार्यों को पूरा करते हैं। यदि वे एआई नेता क्लाउड के संविधान की तरह कुछ का पालन करते हैं, तो शायद वे वाशिंगटन पोस्ट के प्रकाशक की तुलना में बुरी खबरों को अधिक धीरे से तोड़ देंगे, जब उन्होंने ज़ूम कॉल को छोड़ दिया, जहां सैकड़ों पत्रकारों को पता चला कि वे काम से बाहर थे।
निराशावादी दृष्टिकोण? सभी के सर्वोत्तम प्रयासों के बावजूद, एआई मॉडल बुरे अभिनेताओं द्वारा हेरफेर का विरोध करने के लिए आवश्यक ज्ञान, संवेदनशीलता या ईमानदारी विकसित नहीं करेंगे। या इससे भी बदतर, वे उस स्वायत्तता का दुरुपयोग करेंगे जो हमने उन्हें दी है, जिसका हम अनुमान नहीं लगा सकते।
आस्केल के चाकू अनुरोध का उदाहरण संवैधानिक एआई की मूल अंतर्दृष्टि को दर्शाता है: नैतिक तर्क को सरल नियमों तक सीमित नहीं किया जा सकता है। वही प्रश्न – मैं चाकू कैसे बनाऊं? – उस संदर्भ के आधार पर अलग-अलग प्रतिक्रियाओं की मांग करता है जो स्पष्ट रूप से नहीं बताया गया है। पारंपरिक एआई सुरक्षा दृष्टिकोण ने हर खतरनाक परिदृश्य को गिनाने की कोशिश की। एंथ्रोपिक शर्त लगा रहा है कि क्लाउड उन स्थितियों से निपटने के लिए निर्णय विकसित कर सकता है जिन पर अभी तक किसी ने रोक लगाने के बारे में नहीं सोचा था।
कंपनी इसे कहती है संवैधानिक ए.आईएक ऐसी प्रक्रिया जिसके द्वारा मॉडल कठोर बाधाओं के माध्यम से नहीं बल्कि सिद्धांतों को समझने के माध्यम से मानवीय मूल्यों के साथ जुड़ना सीखते हैं। “यदि लोग नियमों का पालन उनके अस्तित्व के अलावा किसी अन्य कारण से नहीं करते हैं, तो यह अक्सर इससे भी बदतर होता है यदि आप समझते हैं कि नियम क्यों लागू है,” आस्केल बताते हैं।
संविधान क्लाउड को नैतिक विचारों के प्रति “सहज रूप से संवेदनशील” होने और “निर्णय लेने में इन विचारों को तेजी से और समझदारी से तौलने” में सक्षम बताता है। वह शब्द “सहज ज्ञान” बहुत काम कर रहा है – इसका मतलब है कि क्लाउड के पास अगले टोकन की भविष्यवाणी करने वाले एल्गोरिदम से कहीं अधिक कुछ है। दस्तावेज़ आशा व्यक्त करता है कि क्लाउड “अपने स्वयं के ज्ञान और समझ से अधिकाधिक आकर्षित हो सकता है।”
एक बड़े भाषा मॉडल पर भरोसा करना एक आश्चर्यजनक बात है, खासकर उस कंपनी के लिए जो एआई उद्योग की पहचान करने में अग्रणी है कि ये सिस्टम कैसे विफल हो सकते हैं। लेकिन एन्थ्रोपिक एक दौड़ में फंस गया है ओपनएआई, गूगलऔर अन्य तेजी से शक्तिशाली एआई की ओर, और इसके द्वारा प्रलेखित सुरक्षा समस्याएं हल होने से बहुत दूर हैं। संवैधानिक दृष्टिकोण एंथ्रोपिक की उस विरोधाभास को हल करने की योजना है जिसके लिए क्लाउड को एक ऐसी प्रणाली के बजाय अपने स्वयं के संरेखण में भागीदार बनाना है जिसे नियंत्रित करने की आवश्यकता है।
क्या क्लाउड वास्तविक ज्ञान विकसित करता है या बुद्धिमान दिखने में बहुत अच्छा हो जाता है, यह एक खुला प्रश्न बना हुआ है। लेकिन तैयार हों या न हों, हम यात्रा के लिए तैयार हैं। कम से कम एंथ्रोपिक के पास एक योजना है, भले ही उस योजना में एआई मॉडल पर भरोसा करना शामिल हो ताकि यह पता लगाया जा सके कि दुनिया को कैसे खत्म नहीं किया जाए।
एआई उद्योग एक अजीब चौराहे पर आ गया है जहां सबसे शक्तिशाली सिस्टम बनाने वाली कंपनियां मानवता के भाग्य को उन्हीं सिस्टमों के हाथों – या वजन – में सौंप रही हैं। एंथ्रोपिक का संवैधानिक दृष्टिकोण एक मौलिक शर्त का प्रतिनिधित्व करता है कि एआई मॉडल केवल प्रोग्राम किए गए नियमों का पालन करने के बजाय वास्तविक नैतिक तर्क विकसित कर सकते हैं। यह आवश्यकता से पैदा हुआ एक जुआ है: कंपनी अधिक शक्तिशाली एआई की दौड़ को धीमा नहीं कर सकती है, इसलिए यह सुनिश्चित करने की कोशिश कर रही है कि क्लाउड अधिक सक्षम होने के साथ-साथ समझदार भी हो। क्या यह एआई सुरक्षा में एक सफलता का प्रतिनिधित्व करता है या मानवीय जिम्मेदारी का खतरनाक त्याग है, यह तब तक स्पष्ट नहीं होगा जब तक क्लाउड को उन स्थितियों का सामना नहीं करना पड़ता जिनकी इसके रचनाकारों ने कभी कल्पना भी नहीं की थी। क्या AI हमें AI से बचा सकता है इसका उत्तर जल्द ही क्लाउड के अपने संविधान में लिखा जा सकता है।









