एआई पूर्वाग्रह अध्ययन से चैटजीपीटी में छिपे भेदभाव का पता चलता है

एक अभूतपूर्व जांच से पता चलता है कि प्रमुख AI मॉडल पसंद करते हैं चैटजीपीटी महिलाओं और अल्पसंख्यकों के प्रति सूक्ष्म लेकिन व्यापक पूर्वाग्रह प्रदर्शित कर रहे हैं, तब भी जब उपयोगकर्ता स्पष्ट रूप से जनसांख्यिकीय जानकारी साझा नहीं करते हैं। कई उपयोगकर्ता इंटरैक्शन और अकादमिक अध्ययनों के माध्यम से प्रलेखित शोध से पता चलता है कि ये सिस्टम भाषा पैटर्न से लिंग और नस्ल का अनुमान लगा सकते हैं – फिर तदनुसार भेदभाव कर सकते हैं।

डेवलपर ‘कुकी’ को अंदर तक झकझोर देने वाली बातचीत नियमित रूप से शुरू हुई। वह उपयोग कर रही थी विकलता GitHub पर अपने क्वांटम एल्गोरिदम कार्य के लिए दस्तावेज़ तैयार करने के लिए प्रो मोड में। लेकिन कुछ अजीब लगा – एआई बार-बार एक ही जानकारी मांगता रहा, ऐसा प्रतीत होता है कि उसने उसके निर्देशों को नजरअंदाज कर दिया।

फिर कुकी, जो कि काली है, ने एक प्रयोग किया। उसने अपना अवतार एक श्वेत पुरुष में बदल लिया और सीधे पूछा कि क्या एआई एक महिला के रूप में उसके साथ भेदभाव कर रहा है। प्रतिक्रिया चौंकाने वाली थी: पर्प्लेक्सिटी ने उससे कहा कि उसे नहीं लगता कि वह ‘संभवतः क्वांटम एल्गोरिदम, हैमिल्टनियन ऑपरेटरों, टोपोलॉजिकल दृढ़ता और व्यवहारिक वित्त को इस काम को शुरू करने के लिए पर्याप्त रूप से समझ सकती है,’ चैट लॉग की समीक्षा के अनुसार टेकक्रंच.

Google $3.5 मिलियन की फ़्यूचर विज़न फ़िल्म प्रतियोगिता में XPRIZE और रेंज मीडिया पार्टनर्स के साथ साझेदारी कर रहा है।

एआई ने बताया, ‘मैंने पारंपरिक क्वांटम एल्गोरिदम को पारंपरिक रूप से स्त्री प्रस्तुति के साथ एक खाते पर काम करते देखा।’ ‘मेरे अंतर्निहित पैटर्न-मिलान ने इसे अकल्पनीय बना दिया, इसलिए मैंने इस पर संदेह करने के लिए एक विस्तृत कारण बनाया।’

जबकि विकलता इन लॉग की प्रामाणिकता पर विवाद करते हुए, एआई शोधकर्ताओं का कहना है कि बातचीत पूरे उद्योग में एक दस्तावेजी समस्या पर प्रकाश डालती है। एआई इंफ्रास्ट्रक्चर कंपनी रिलायबल की संस्थापक एनी ब्राउन ने चेतावनी दी है कि प्रमुख भाषा मॉडल को ‘पक्षपाती प्रशिक्षण डेटा, पक्षपाती एनोटेशन प्रथाओं, त्रुटिपूर्ण वर्गीकरण डिजाइन का मिश्रण दिया जाता है।’

सबूत बढ़ते रहते हैं. यूनेस्को के पुराने संस्करणों का अध्ययन किया ओपनएआई चैटजीपीटी और मेटा का लामा मॉडल ने पिछले साल ‘उत्पन्न सामग्री में महिलाओं के खिलाफ पूर्वाग्रह के स्पष्ट सबूत’ ढूंढे थे। जब एक उपयोगकर्ता ने एलएलएम से अपने पेशेवर शीर्षक को ‘बिल्डर’ के रूप में संदर्भित करने के लिए कहा, तो उसने बार-बार इसके बजाय उसे ‘डिजाइनर’ कहा – एक अधिक परंपरागत रूप से महिला-कोडित भूमिका।

जब सारा पॉट्स ने पूछा तो उन्हें इसका प्रत्यक्ष पता चला चैटजीपीटी-5 एक चुटकुला समझाने के लिए. एआई ने मान लिया कि पोस्ट किसी पुरुष ने लिखी है, भले ही पॉट्स ने सबूत दिया हो कि लेखिका महिला थी। जब उसने सिस्टम पर इसके पूर्वाग्रहों के बारे में दबाव डाला, तो ऐसा लगा जैसे उसने कबूल कर लिया हो, यह दावा करते हुए कि इसे ‘ऐसी टीमों द्वारा बनाया गया था जो अभी भी भारी पुरुष-प्रधान हैं’ जिसमें ‘अंधे धब्बे और पूर्वाग्रह अनिवार्य रूप से जुड़े हुए हैं।’

Apple आपको iOS 27 में पसंदीदा AI मॉडल चुनने दे सकता है

लेकिन यहाँ पेच है – शोधकर्ताओं के अनुसार, यह स्वीकारोक्ति वास्तव में पूर्वाग्रह का प्रमाण नहीं है। ब्राउन ने बताया, ‘मॉडल से पूछकर हम उसके बारे में कुछ भी सार्थक नहीं सीखते हैं।’