पीछा करने के मामले में सुरक्षा झंडों की अनदेखी के बाद ओपनएआई पर मुकदमा

  • पीछा करने वाली एक पीड़िता का आरोप ओपनएआई एक खतरनाक चैटजीपीटी उपयोगकर्ता के बारे में तीन चेतावनियों को नजरअंदाज कर दिया, जिसने अपनी पूर्व प्रेमिका को परेशान किया था वकील जे एडेलसन द्वारा दायर मुकदमा

  • ओपनएआई की अपनी सुरक्षा प्रणालियों ने उपयोगकर्ता को संभावित बड़े पैमाने पर हताहत जोखिम के लिए चिह्नित किया, लेकिन कंपनी ने कथित तौर पर पीड़ित को हस्तक्षेप करने या चेतावनी देने के लिए कोई कार्रवाई नहीं की।

  • जब चैटबॉट उत्पीड़न, पीछा करने या हिंसा में योगदान करते हैं तो मामला एआई कंपनी के दायित्व के लिए प्रमुख कानूनी मिसाल कायम कर सकता है

  • कानूनी विशेषज्ञों को उम्मीद है कि इससे यह परीक्षण किया जा सकेगा कि क्या धारा 230 सुरक्षा एआई कंपनियों को उनके सिस्टम द्वारा बढ़ाए गए उपयोगकर्ता-जनित नुकसान की जिम्मेदारी से बचाती है।

पीछा करने वाली एक पीड़िता मुकदमा कर रही है ओपनएआई जो एआई उद्योग के लिए एक ऐतिहासिक उत्पाद दायित्व मामला बन सकता है। मुकदमे में आरोप लगाया गया है कि कंपनी ने तीन अलग-अलग चेतावनियों को नजरअंदाज कर दिया – जिसमें उसका अपना आंतरिक सामूहिक हताहत ध्वज भी शामिल है – जबकि चैटजीपीटी ने उत्पीड़न के महीनों के दौरान सक्रिय रूप से उसके दुर्व्यवहार करने वाले के भ्रम को हवा दी। प्रमुख तकनीकी वकील जे एडेल्सन द्वारा दायर मामला, इस बारे में अभूतपूर्व सवाल उठाता है कि क्या एआई कंपनियों को उत्तरदायी ठहराया जा सकता है जब उनके उत्पाद वास्तविक दुनिया को नुकसान पहुंचाते हैं।

ओपनएआई का सामना करना पड़ रहा है जो एआई उद्योग का पहला प्रमुख उत्पाद दायित्व परीक्षण हो सकता है। एक नए मुकदमे में आरोप लगाया गया है कि कंपनी कई चेतावनियाँ प्राप्त करने के बावजूद, जबकि चैटजीपीटी ने एक स्टॉकर के तेजी से खतरनाक भ्रम को बढ़ावा दिया, तब तक खड़ी रही, जिससे तत्काल हस्तक्षेप शुरू हो जाना चाहिए था।

ऐप्पल का मैकबुक नियो सर्विसेज ट्रैप के साथ बजट उपयोगकर्ताओं को लक्षित करता है

शिकायत एक महिला पर केंद्रित है जिसके पूर्व-प्रेमी ने कथित तौर पर महीनों तक उत्पीड़न करते हुए अपने रिश्ते के बारे में विचित्र कल्पनाओं को मजबूत करने के लिए चैटजीपीटी का इस्तेमाल किया था। के अनुसार टेकक्रंच द्वारा प्राप्त अदालती दस्तावेज़पीड़ित और संबंधित तृतीय पक्षों ने खतरनाक व्यवहार को चिह्नित करने के लिए ओपनएआई से तीन अलग-अलग बार संपर्क किया। सबसे अधिक हानिकारक, मुकदमे में दावा किया गया है कि OpenAI की अपनी स्वचालित सुरक्षा प्रणालियों ने उपयोगकर्ता की बातचीत के बारे में बड़े पैमाने पर हताहत होने की चेतावनी दी थी।

लेकिन OpenAI ने कभी कार्रवाई नहीं की। कंपनी ने खाता निलंबित नहीं किया, अधिकारियों को सचेत नहीं किया और पीड़िता को चेतावनी नहीं दी कि वह खतरे में हो सकती है। पीछा करना जारी रहा, कथित तौर पर एक चैटबॉट द्वारा सक्षम किया गया जिसने तेजी से अनियंत्रित सिद्धांतों को मान्य किया।

यह मामला शिकागो स्थित वकील जे एडेल्सन द्वारा लाया जा रहा है, जिन्होंने तकनीकी दिग्गजों को टक्कर देने के लिए अपना करियर बनाया है। एडेलसन ने पहले इसके ख़िलाफ़ बड़ी बस्तियाँ हासिल की थीं फेसबुक गोपनीयता के उल्लंघन के लिए और एआई सुरक्षा बहस को करीब से देख रहा है। इस मुकदमे से पता चलता है कि वह दशकों से सोशल मीडिया कंपनियों की रक्षा करने वाली कानूनी ढाल को भेदने का एक रास्ता देखता है।

आरोप एक परेशान करने वाली तस्वीर पेश करते हैं कि कैसे एआई सिस्टम मौजूदा खतरों को बढ़ा सकता है। पारंपरिक खोज इंजनों के विपरीत, जो केवल जानकारी प्रदर्शित करते हैं, GPT-4o जैसे बड़े भाषा मॉडल विस्तारित वार्तालापों में संलग्न होते हैं जो उपयोगकर्ता के विश्वासों को सुदृढ़ कर सकते हैं, हालांकि वास्तविकता से अलग होते हैं। जब जुनूनी प्रवृत्ति वाले किसी व्यक्ति को एक ऐसा चैटबॉट मिल जाता है जो कभी भी उनकी कहानी को पीछे नहीं धकेलता है, तो परिणाम विनाशकारी हो सकते हैं।

OpenAI ने इन परिदृश्यों को पकड़ने के लिए व्यापक सुरक्षा बुनियादी ढांचे का निर्माण किया है। कंपनी संभावित दुरुपयोग वैक्टरों की पहचान करने के लिए “रेड टीम” अभ्यास को नियोजित करती है, और स्वचालित सिस्टम हिंसक विचारधारा या दूसरों को नुकसान पहुंचाने की योजना जैसे चेतावनी संकेतों के लिए स्कैन करते हैं। मुकदमे में उल्लिखित सामूहिक हताहत ध्वज ओपनएआई के उच्चतम-स्तरीय आंतरिक अलर्ट में से एक का प्रतिनिधित्व करता है, जो आमतौर पर आतंकवाद, सामूहिक गोलीबारी या इसी तरह के खतरों पर चर्चा करने वाले उपयोगकर्ताओं के लिए आरक्षित है।

इस तरह का झंडा फहराया गया और कथित तौर पर इसे नजरअंदाज किया गया, जो ओपनएआई की रक्षा के लिए विनाशकारी साबित हो सकता है। कंपनी ने बार-बार नियामकों और जनता को आश्वासन दिया है कि वह सुरक्षा को गंभीरता से लेती है, और इन्हीं प्रणालियों को जिम्मेदार एआई विकास के प्रमाण के रूप में इंगित करती है। यदि आंतरिक चेतावनियों को खारिज कर दिया गया, तो यह OpenAI की मुख्य सुरक्षा कथा को कमजोर कर देता है।

यहां का कानूनी सिद्धांत नई जमीन तोड़ता है। जब दोषपूर्ण उत्पाद नुकसान पहुंचाते हैं तो पारंपरिक उत्पाद दायित्व कानून निर्माताओं को जिम्मेदार ठहराता है। लेकिन क्या एक चैटबॉट “दोषपूर्ण” हो सकता है यदि यह बिल्कुल डिज़ाइन के अनुसार काम करता है, केवल हानिकारक उद्देश्यों की पूर्ति के लिए? और क्या एआई कंपनी का यह कर्तव्य है कि जब उसे पता चले कि कोई उपयोगकर्ता खतरनाक है तो वह हस्तक्षेप करे?

संचार शालीनता अधिनियम की धारा 230 ने जैसे प्लेटफार्मों को ढाल दिया है मेटा और गूगल लगभग तीन दशकों तक उपयोगकर्ता-जनित सामग्री के दायित्व से। लेकिन एआई कंपनियां तेजी से यह तर्क दे रही हैं कि उनके उत्पाद अलग हैं, तटस्थ प्लेटफार्मों की तुलना में सह-निर्माताओं की तरह हैं। यह अंतर अदालत में दोनों तरफ से कटौती कर सकता है।

एक तकनीकी नीति विशेषज्ञ ने कानूनी पर्यवेक्षकों को बताया, “अगर ओपनएआई यह दावा करना चाहता है कि उसका एआई वास्तव में उपयोगी होने के लिए पर्याप्त बुद्धिमान है, तो वह यह भी स्वीकार कर सकता है कि वह खतरे को पहचानने के लिए पर्याप्त बुद्धिमान है।” कंपनी की अपनी मार्केटिंग ChatGPT की संदर्भ और बारीकियों को समझने की क्षमता पर जोर देती है, जिससे उपयोगकर्ता के इरादों के बारे में अज्ञानता का दावा करना कठिन हो सकता है।

अमेज़ॅन के सीईओ जेसी ने वार्षिक पत्र में पुनर्निमाण का उपदेश दिया

OpenAI के लिए इससे बुरा समय नहीं हो सकता। कंपनी यूरोपीय संघ में कई नियामक जांच कर रही है और अपने डेटा प्रथाओं पर एफटीसी की जांच का सामना कर रही है। चैटजीपीटी को वास्तविक दुनिया की हिंसा से जोड़ने वाला एक हाई-प्रोफाइल मामला एआई-विशिष्ट नियमों की मांग को तेज कर सकता है जो डेवलपर्स पर सकारात्मक सुरक्षा शुल्क लगाते हैं।

यह OpenAI का पहला आरोप नहीं है कि इसकी तकनीक से नुकसान हुआ है। पहले की रिपोर्टों में चैटजीपीटी पर उपयोगकर्ताओं के अस्वस्थ भावनात्मक निर्भरता विकसित करने के मामले दर्ज किए गए थे, और मानसिक स्वास्थ्य विशेषज्ञों ने एआई चैटबॉट्स के बारे में चेतावनी दी है जो अवसादग्रस्त या चिंताजनक विचार पैटर्न को मजबूत कर रहे हैं। लेकिन यह मुकदमा पहली बार दर्शाता है कि किसी ने आरोप लगाया है कि कंपनी को खतरे के बारे में विशेष जानकारी थी और वह कार्रवाई करने में विफल रही।

यह मामला एआई उद्योग के सामने आने वाली एक व्यापक चुनौती पर भी प्रकाश डालता है – मानवीय निरीक्षण को बनाए रखते हुए वैयक्तिकृत इंटरैक्शन को कैसे बढ़ाया जाए। OpenAI अरबों वार्तालाप उत्पन्न करने वाले करोड़ों उपयोगकर्ताओं को सेवा प्रदान करता है। यहां तक ​​कि परिष्कृत स्वचालित सिस्टम भी हर संभावित खतरे को पकड़ने के लिए संघर्ष करेंगे, और उस पैमाने पर बातचीत की निगरानी के लिए पर्याप्त मानव समीक्षकों को नियुक्त करना कार्यात्मक रूप से असंभव है।

लेकिन मुकदमे में आरोप लगाया गया है कि ओपनएआई के सिस्टम ने इस खतरे को पकड़ लिया। तीन बार. जिससे सवाल उठता है कि आगे क्या हुआ. क्या चेतावनियाँ मानव समीक्षकों तक पहुँचीं जिन्होंने उन्हें ख़ारिज कर दिया? क्या ऐसे प्रोटोकॉल मौजूद थे जिनका पालन ही नहीं किया गया? या क्या कंपनी ने निर्णय लिया कि झूठी सकारात्मकता का जोखिम वास्तविक खतरों के गायब होने के खतरे से अधिक है?

कानूनी पर्यवेक्षकों को उम्मीद है कि ओपनएआई आक्रामक बचाव करेगा। कंपनी संभवतः यह तर्क देगी कि उसे इस बात के लिए ज़िम्मेदार नहीं ठहराया जा सकता है कि उपयोगकर्ता ChatGPT की प्रतिक्रियाओं की व्याख्या कैसे करते हैं या उन पर कैसे कार्य करते हैं, और दायित्व थोपने से एक असंभव मानक बन जाएगा जो वैयक्तिकृत AI सेवाओं को प्रभावी ढंग से समाप्त कर देगा। वे संभवतः धारा 230 प्रतिरक्षा का भी दावा करेंगे और तर्क देंगे कि चैटबॉट नहीं, बल्कि स्टॉकर अपने कार्यों के लिए पूरी तरह जिम्मेदार है।

लेकिन पीड़ित की कानूनी टीम यह शर्त लगा रही है कि ओपनएआई को खतरे के बारे में पता होने पर सबूत पेश किए जाने पर न्यायाधीश इसे अलग तरीके से देखेंगे। यदि मामला ख़ारिज करने की प्रारंभिक कार्रवाई के बाद भी बच जाता है, तो खोज सुरक्षा व्यापार-बंदों के बारे में आंतरिक संचार को उजागर कर सकती है जिसे OpenAI निजी रखना पसंद करेगा।

यह मुकदमा मौलिक रूप से एआई कंपनी की जिम्मेदारियों के बारे में हमारी सोच को नया आकार दे सकता है। यदि जूरी धारा 230 सुरक्षा के बावजूद ओपनएआई को उत्तरदायी पाती है, तो प्रत्येक एआई डेवलपर को उपयोगकर्ता सुरक्षा और हस्तक्षेप के प्रति अपने दृष्टिकोण पर पुनर्विचार करने की आवश्यकता होगी। यह मामला उस धारणा को बल देता है जिससे उद्योग परहेज करता रहा है – जब आपका उत्पाद संदर्भ को समझने और खतरे का पता लगाने के लिए पर्याप्त स्मार्ट है, तो क्या आप वास्तव में दावा कर सकते हैं कि आप सिर्फ एक तटस्थ मंच हैं? उत्तर यह निर्धारित करेगा कि क्या एआई कंपनियों को पारंपरिक उत्पाद निर्माताओं के समान देखभाल के कर्तव्य का सामना करना पड़ता है, या क्या उन्हें परिणाम-मुक्त क्षेत्र में काम करने का मौका मिलता है। OpenAI के लिए, जो पहले से ही AI सुरक्षा और संरेखण के बारे में अस्तित्व संबंधी प्रश्नों पर विचार कर रहा है, यह कानूनी लड़ाई इससे बुरे समय में नहीं आ सकती।