Canva अपने नए एआई-पावर्ड मैजिक लेयर्स फीचर के उपयोगकर्ता डिजाइनों में “फिलिस्तीन” शब्द को “यूक्रेन” के साथ स्वचालित रूप से बदलने के बाद नतीजों को रोकने के लिए संघर्ष कर रहा है। इस घटना को सबसे पहले एक्स यूजर ने देखा @ros_ie9एक उपकरण में परेशान करने वाले पूर्वाग्रह को प्रकट करता है जिसका उद्देश्य केवल छवि परतों को अलग करना है – न कि राजनीतिक सामग्री को संपादित करना। ऑस्ट्रेलियाई डिज़ाइन दिग्गज ने माफ़ी मांगी है और दावा किया है कि समस्या ठीक हो गई है, लेकिन यह प्रकरण नए सवाल उठाता है कि क्या होता है जब एआई सिस्टम अपने स्वयं के संपादकीय निर्णयों को रचनात्मक कार्यों में शामिल करते हैं।
Canva अभी-अभी डिज़ाइन समुदाय को एआई सुविधाओं को तैनात न करने का एक मास्टरक्लास सौंपा गया है। प्लेटफ़ॉर्म का नया लॉन्च किया गया मैजिक लेयर्स टूल – इसका हिस्सा है व्यापक AI 2.0 अद्यतन – उपयोगकर्ता कलाकृति में “फिलिस्तीन” शब्द को “यूक्रेन” के साथ प्रतिस्थापित करते हुए रंगे हाथों पकड़ा गया है, जिससे सोशल मीडिया पर तत्काल प्रतिक्रिया हुई और कंपनी को क्षति नियंत्रण मोड में मजबूर होना पड़ा।
यह खोज एक्स उपयोगकर्ता से हुई @ros_ie9जिन्होंने “फिलिस्तीन के लिए बिल्लियाँ” वाक्यांश वाले अपने डिज़ाइन को दिखाने से पहले और बाद के स्क्रीनशॉट पोस्ट किए, जो मैजिक लेयर्स के माध्यम से चलाने के बाद रहस्यमय तरीके से “यूक्रेन के लिए बिल्लियों” में बदल गए। यह सुविधा फ्लैट छवियों को अलग-अलग संपादन योग्य घटकों में समझदारी से अलग करने वाली है – पृष्ठभूमि को हटाने या टेक्स्ट परतों को अलग करने के बारे में सोचें। यह आपकी सामग्री को दोबारा लिखने वाला नहीं है।
जो चीज़ इसे विशेष रूप से हानिकारक बनाती है वह है सेंसरशिप की विशिष्टता। मूल पोस्ट के अनुसार, मैजिक लेयर्स ने “गाजा” जैसे अन्य भू-राजनीतिक रूप से संवेदनशील शब्दों को पूरी तरह से अछूता छोड़ दिया। यह कोई अतिउत्साही ऑप्टिकल कैरेक्टर पहचान नहीं थी जो ख़राब हो गई थी – यह एक विशिष्ट शब्द को लक्षित करने वाले जानबूझकर फ़िल्टरिंग का सुझाव देता है। सोशल मीडिया ग्राफ़िक्स से लेकर एक्टिविस्ट सामग्री तक सब कुछ बनाने के लिए लाखों लोगों द्वारा उपयोग किए जाने वाले डिज़ाइन प्लेटफ़ॉर्म के लिए, यह एक पीआर आपदा होने की प्रतीक्षा कर रही है।
Canva एक बयान जारी करते हुए आग्नेयास्त्र को संबोधित करने के लिए तेजी से आगे बढ़े द वर्ज मैजिक लेयर्स के साथ “एक समस्या” को स्वीकार करना। कंपनी का दावा है कि अब इसका समाधान हो गया है और उसने इसी तरह की घटनाओं को रोकने के लिए सुरक्षा उपाय लागू करने का वादा किया है। लेकिन अस्पष्ट भाषा उत्तर देने से अधिक प्रश्न उठाती है – क्या यह अंतर्निहित एआई मॉडल में एक बग था, एक अति उत्साही सामग्री मॉडरेशन फ़िल्टर, या पूरी तरह से कुछ और?
इससे बुरा समय नहीं हो सकता Canva. सिडनी स्थित कंपनी आक्रामक रूप से एआई-संचालित सुविधाओं पर जोर दे रही है क्योंकि यह एडोब और अन्य डिज़ाइन पदाधिकारियों के साथ प्रतिस्पर्धा करती है। मैजिक लेयर्स एक महत्वपूर्ण तकनीकी उपलब्धि का प्रतिनिधित्व करता है – कठिन डिज़ाइन कार्यों को स्वचालित करने के लिए कंप्यूटर विज़न और मशीन लर्निंग का उपयोग करना। लेकिन यदि उपयोगकर्ता अपने रचनात्मक इरादे को बरकरार रखने के लिए एआई पर भरोसा नहीं कर सकते हैं, तो संपूर्ण मूल्य प्रस्ताव ध्वस्त हो जाता है।
यह घटना अप्रत्याशित राजनीतिक पूर्वाग्रहों को प्रदर्शित करने वाले एआई सिस्टम के व्यापक पैटर्न में फिट बैठती है। कुछ विषयों के बारे में सामग्री तैयार करने से इनकार करने वाले चैटबॉट से लेकर विशिष्ट कीवर्ड को अवरुद्ध करने वाले छवि जनरेटर तक, कंपनियां स्पष्ट रूप से ऐसी सामग्री नीतियों को लागू कर रही हैं जिन्हें उपयोगकर्ता पूरी तरह से नहीं समझते हैं। यहाँ अंतर यह है Canva उपयोगकर्ता एआई से नई सामग्री तैयार करने के लिए नहीं कह रहे थे – वे अपने स्वयं के मौजूदा डिज़ाइन को संपादित करने का प्रयास कर रहे थे।
डिजाइनरों, कलाकारों और कार्यकर्ताओं के लिए जो भरोसा करते हैं Canva संवेदनशील भू-राजनीतिक मुद्दों के बारे में संवाद करने के लिए, विश्वास का यह उल्लंघन गहरा होता है। यदि मंच आज चुपचाप “फिलिस्तीन” को बदल सकता है, तो छिपी हुई ब्लॉकलिस्ट में अन्य कौन से शब्द हो सकते हैं? इन फ़िल्टरिंग तंत्रों के आसपास पारदर्शिता की कमी एक भयावह प्रभाव पैदा करती है जहां रचनाकारों को दोबारा अनुमान लगाना पड़ता है कि क्या उनके उपकरण ईमानदारी से उनकी दृष्टि को क्रियान्वित करेंगे।
तकनीकी व्याख्या व्यापक निहितार्थों से कम मायने रखती है। चाहे यह प्रशिक्षण डेटा पूर्वाग्रह, स्पष्ट फ़िल्टरिंग नियमों या कुछ संयोजन के कारण हुआ हो, Canva एक एआई सुविधा भेजी गई जो उपयोगकर्ता की सहमति के बिना संपादकीय निर्णय लेती है। यह बुनियादी तौर पर एक रचनात्मक उपकरण को क्या करना चाहिए, इसके विपरीत है।
उद्योग पर्यवेक्षक पहले से ही अन्य हालिया एआई मॉडरेशन विवादों की तुलना कर रहे हैं। मेटा के इंस्टाग्राम को कथित तौर पर फिलिस्तीन समर्थक सामग्री को दबाने के लिए आलोचना का सामना करना पड़ा है, जबकि विभिन्न एआई प्लेटफार्मों पर उनके आउटपुट में राजनीतिक पूर्वाग्रह का आरोप लगाया गया है। जैसे-जैसे एआई रचनात्मक वर्कफ़्लो में गहराई से अंतर्निहित होता जाता है, ये किनारे वाले मामले नियमित निराशा बन जाते हैं।
Canvaकी तीव्र प्रतिक्रिया से पता चलता है कि कंपनी गंभीरता को समझती है। लेकिन केवल इस विशिष्ट उदाहरण को ठीक करने से अंतर्निहित प्रश्न का समाधान नहीं होता है – उनके एआई सिस्टम में कितने अन्य अदृश्य रेलिंग शामिल हैं? रोजमर्रा के रचनाकारों को सशक्त बनाने के लिए बनाए गए मंच के लिए, यह अपारदर्शिता विशेष रूप से समस्याग्रस्त है।
यह घटना एआई को बड़े पैमाने पर तैनात करने की चुनौतियों पर भी प्रकाश डालती है। Canva लगभग हर देश में 190 मिलियन से अधिक उपयोगकर्ताओं को सेवा प्रदान करता है। सभी परस्पर विरोधी राजनीतिक संदर्भों के साथ, उस वैश्विक उपयोगकर्ता आधार पर निष्पक्ष रूप से काम करने वाली सामग्री मॉडरेशन और सुरक्षा प्रणालियों का निर्माण करना वास्तव में कठिन है। लेकिन कठिनाई उन शिपिंग सुविधाओं को माफ नहीं करती जो भू-राजनीतिक विवादों में पक्ष लेती प्रतीत होती हैं।
आगे क्या होगा यह तय करेगा कि यह एक फ़ुटनोट बनेगा या एक महत्वपूर्ण मोड़। इच्छा Canva एक विस्तृत पोस्टमॉर्टम प्रकाशित करें जिसमें बताया जाए कि वास्तव में क्या गलत हुआ? क्या वे अपनी एआई फ़िल्टरिंग नीतियों में पारदर्शिता के लिए प्रतिबद्ध होंगे? या क्या यह पृष्ठभूमि में फीका पड़ जाएगा क्योंकि उपयोगकर्ता सावधानी से मंच पर लौट आएंगे, अब उन्हें पता चल जाएगा कि उनके रचनात्मक टूल की अपनी राय हो सकती है?
यह सिर्फ एक तकनीकी गड़बड़ी नहीं थी – यह उस अदृश्य संपादकीय शक्ति के बारे में एक चेतावनी है जो हम एआई सिस्टम को सौंप रहे हैं। जैसे-जैसे डिज़ाइन उपकरण स्मार्ट होते जाते हैं, सहायक स्वचालन और अवांछित सेंसरशिप के बीच की रेखा धुंधली होती जाती है। Canva हो सकता है कि इस विशिष्ट समस्या को सुलझा लिया गया हो, लेकिन बड़ा सवाल यह है: जब आप एआई से अपने काम को संपादित करने में मदद मांगते हैं, तो यह वास्तव में किसके मूल्यों की सेवा कर रहा है? उन लाखों रचनाकारों के लिए जिन्होंने कैनवा को अपना पसंदीदा मंच बनाया है, वह अनिश्चितता अब हर परियोजना का हिस्सा है। कंपनी का अगला कदम केवल कोड को ठीक करने के बारे में नहीं है – यह उस समुदाय के साथ विश्वास के पुनर्निर्माण के बारे में है जिसने अभी-अभी सीखा है कि उनके रचनात्मक उपकरण उनकी पीठ पीछे राजनीतिक निर्णय ले सकते हैं।









