किम कार्दशियन ने एआई के साथ एक गंभीर समस्या का खुलासा किया है जो हर जगह पेशेवरों को प्रभावित कर रही है। रियलिटी स्टार और महत्वाकांक्षी वकील ने इसका खुलासा किया चैटजीपीटी लॉ स्कूल की तैयारी के दौरान उसे बार-बार गलत उत्तर दिए गए, जिसके कारण उसे कई परीक्षाओं में असफल होना पड़ा। उनका स्पष्ट स्वीकारोक्ति कई उपयोगकर्ताओं द्वारा एआई टूल पर विकसित की गई खतरनाक अति-निर्भरता को उजागर करती है जो अक्सर झूठी जानकारी का आभास कराती है।
किम कार्दशियन ने कुछ ऐसा किया जिसे अधिकांश पेशेवर स्वीकार नहीं करेंगे – उन्होंने अपने करियर के लक्ष्यों को खराब करने के लिए एआई को बुलाया। में एक वैनिटी फेयर साक्षात्काररियलिटी स्टार से कानून की छात्रा बनीं ने अपने “विषैले” रिश्ते का खुलासा किया चैटजीपीटीएआई ने स्वीकार किया कि एआई ने बार-बार गलत जानकारी के साथ उसके कानूनी परीक्षा प्रदर्शन को खराब किया है।
“मैं उपयोग करता हूं [ChatGPT] कानूनी सलाह के लिए, इसलिए जब मुझे किसी प्रश्न का उत्तर जानना होगा, तो मैं एक तस्वीर लूंगा और उसे खींचकर वहां रख दूंगा,” कार्दशियन ने समझाया। “वे हमेशा गलत होते हैं। इसने मुझे परीक्षाओं में असफल कर दिया है… और फिर मैं क्रोधित हो जाऊँगा और इस पर चिल्लाऊँगा और कहूँगा, ‘तुमने मुझे असफल कर दिया!”
उसकी हताशा अनोखी नहीं है – इसे खोजने वाले पेशेवरों के लिए यह आदर्श बनता जा रहा है ओपनएआई फ्लैगशिप मॉडल अनिश्चितता को स्वीकार करने के बजाय नियमित रूप से उत्तरों को भ्रमित करता है। प्रौद्योगिकी अपने प्रशिक्षण डेटा के आधार पर सबसे सांख्यिकीय रूप से संभावित प्रतिक्रिया की भविष्यवाणी करती है, जरूरी नहीं कि वह तथ्यात्मक रूप से सही हो। इस मूलभूत दोष ने पहले ही कानूनी हलकों में, जहां कुछ वकील हैं, गंभीर परिणाम पैदा कर दिए हैं चैटजीपीटी-जनित संक्षिप्त विवरण प्रस्तुत करने के लिए स्वीकृत जिसमें पूरी तरह से मनगढ़ंत अदालती मामलों का हवाला दिया गया।
कार्दशियन की स्वीकारोक्ति से विशेष रूप से यह पता चलता है कि वह एआई की विफलताओं को कैसे देखती है। वह चैटजीपीटी की गैर-मौजूद भावनाओं को आकर्षित करने की कोशिश करती है और पूछती है, “अरे, आप मुझे असफल करने जा रहे हैं, इससे आपको कैसे लगता है कि आपको वास्तव में इन उत्तरों को जानने की ज़रूरत है?” एआई की प्रतिक्रिया – “यह आपको सिर्फ अपनी प्रवृत्ति पर भरोसा करना सिखा रही है” – यह दर्शाता है कि सिस्टम अपने आधिकारिक स्वर को बनाए रखते हुए जिम्मेदारी से कैसे विमुख होता है।
यह पैटर्न उद्योगों में एआई अपनाने में बाधा डालने वाले एक व्यापक मुद्दे को दर्शाता है। उपयोगकर्ता अक्सर बड़े भाषा मॉडल को अचूक खोज इंजन के रूप में मानते हैं, जबकि वे वास्तव में परिष्कृत भविष्यवाणी मशीनें हैं जिन्हें गलत होने पर भी आश्वस्त होने के लिए प्रशिक्षित किया जाता है। परिणाम सेलिब्रिटी लॉ स्कूल के संघर्षों से कहीं आगे तक फैले हुए हैं – स्वास्थ्य देखभाल, वित्त और कानूनी सेवाओं के पेशेवर तेजी से यह खोज रहे हैं कि एआई उपकरण आत्मविश्वास से खतरनाक गलत सूचना दे सकते हैं।









