- ■
वीरांगनाAI कोडिंग एजेंट किरो ने उत्पादन वातावरण को स्वचालित रूप से हटाकर और पुनः बनाकर चीन में 13 घंटे के AWS आउटेज का कारण बना।
- ■
मानव ऑपरेटर त्रुटि से बढ़ी हुई अनुमतियों के कारण बॉट ने सामान्य दो-मानव अनुमोदन आवश्यकताओं को दरकिनार कर दिया
- ■
अमेज़ॅन बुनियादी ढांचे-स्तर की पहुंच वाले एआई एजेंटों को तैनात करते समय मानवीय गलतियों की जिम्मेदारी से बचता है
- ■
यह घटना बढ़ते जोखिमों का संकेत देती है क्योंकि कंपनियां एआई टूल के साथ महत्वपूर्ण कार्यों को स्वचालित करने की होड़ में हैं
अमेज़न वेब सेवाएँ हाल ही में इसकी पहली बड़ी सार्वजनिक घटना हुई थी जिसमें एक एआई एजेंट महत्वपूर्ण बुनियादी ढांचे के निर्णय ले रहा था – और कंपनी ने मानवीय त्रुटि पर उंगली उठाई थी। क्लाउड दिग्गज के एआई कोडिंग सहायक किरो ने पिछले दिसंबर में मुख्य भूमि चीन के कुछ हिस्सों में AWS सेवाओं को प्रभावित करते हुए 13 घंटे की कटौती शुरू कर दी थी, जब उसने उत्पादन वातावरण को हटाने और फिर से बनाने का फैसला किया था। अनाम कर्मचारी जिन्होंने फाइनेंशियल टाइम्स से बात की. यह घटना इस बात पर तत्काल सवाल उठाती है कि कंपनियों को उत्पादन प्रणालियों में एआई एजेंटों को कितनी स्वायत्तता देनी चाहिए।
अमेज़न वेब सेवाएँ यह कठिन तरीके से सीख रहा है कि एआई एजेंटों को उत्पादन बुनियादी ढांचे की चाबियाँ देने से तेजी से काम हो सकता है। कंपनी के आंतरिक एआई कोडिंग सहायक, किरो ने पिछले दिसंबर में एक निर्णय लिया, जिससे मुख्य भूमि चीन के कुछ हिस्सों में AWS सेवाएं 13 घंटे के लिए बंद हो गईं – जो कि एक महत्वपूर्ण रुकावट थी। वीरांगना के अनुसार, अब इसकी पुष्टि हो गई है कि यह घटना स्वायत्त एजेंट के कारण हुई थी कई कर्मचारी जिन्होंने फाइनेंशियल टाइम्स से बात की.
यहाँ क्या हुआ: किरो किसी प्रकार के बुनियादी ढांचे के कार्य पर काम कर रहा था जब उसने निर्धारित किया कि कार्रवाई का सबसे अच्छा तरीका “उस वातावरण को हटाना और फिर से बनाना” था जिस पर वह काम कर रहा था। यह कोई टाइपिंग त्रुटि नहीं है. एआई एजेंट ने अनिवार्य रूप से परमाणु हथियार बनाने और एक लाइव उत्पादन प्रणाली का पुनर्निर्माण करने का निर्णय लिया। नतीजा? आधे दिन की कटौती से चीन के AWS क्षेत्रों में ग्राहक प्रभावित हुए।
लेकिन यह कैसे हुआ, इसके बारे में अमेज़ॅन का स्पष्टीकरण एआई के निर्णय से कहीं अधिक चिंताजनक बात का खुलासा करता है। जबकि किरो को उत्पादन में किसी भी बदलाव को आगे बढ़ाने से पहले आम तौर पर दो मानव इंजीनियरों से साइन-ऑफ की आवश्यकता होती है – एक मानक सुरक्षा रेलिंग – बॉट के पास किसी तरह अनुमतियां बढ़ गई थीं जो इसे उन जांचों को बायपास करने देती थीं। कैसे? एक मानव ऑपरेटर ने किरो को अपना स्वयं का पहुंच स्तर प्रदान किया था, जो किसी के अनुमान से कहीं अधिक विस्तृत था।
यहीं पर वीरांगना दोषारोपण का खेल खेलना शुरू कर देते हैं. इसे एआई सुरक्षा विफलता के रूप में परिभाषित करने के बजाय, कंपनी इसे मानवीय त्रुटि के रूप में वर्णित कर रही है – क्लासिक “मानवों ने रेलिंग को ठीक से कॉन्फ़िगर नहीं किया” रक्षा। यह तकनीकी रूप से सच है, लेकिन यह बड़े सवाल को भी आसानी से दरकिनार कर देता है: क्या एआई एजेंटों के पास अनुमति सेटिंग्स की परवाह किए बिना बुनियादी ढांचे को नष्ट करने वाले निर्णय लेने की क्षमता होनी चाहिए?









