
विकिपीडिया के संपादकों ने एक हालिया नीति अद्यतन में मंच पर कृत्रिम बुद्धिमत्ता के उपयोग को प्रतिबंधित करने का निर्णय लिया है, जिसमें लेखों को लिखने या फिर से लिखने के लिए बड़े भाषा मॉडल (LLM) के उपयोग पर प्रतिबंध लगा दिया गया है।
यह नया दिशानिर्देश विकिपीडिया समुदाय के भीतर बढ़ती चिंता को दर्शाता है कि AI-जनित पाठ मंच के मानकों के साथ संघर्ष कर सकता है, विशेष रूप से सत्यापनशीलता और विश्वसनीय स्रोतों के संबंध में।
नीति अद्यतन में कहा गया है, "बड़े भाषा मॉडल द्वारा उत्पन्न पाठ अक्सर विकिपीडिया की कई मुख्य सामग्री नीतियों का उल्लंघन करता है।" "इस कारण से, लेख सामग्री उत्पन्न करने या फिर से लिखने के लिए LLM के उपयोग पर प्रतिबंध है, सिवाय नीचे दी गई छूटों के।"
नीति अभी भी AI उपकरणों के सीमित उपयोग की अनुमति देती है, जिसमें एक संपादक के अपने लेखन में बुनियादी कॉपी संपादन का सुझाव देना शामिल है, बशर्ते सिस्टम कोई नई जानकारी न जोड़े। हालांकि, संपादकों को उन सुझावों की सावधानीपूर्वक समीक्षा करने की सलाह दी जाती है।
हालांकि नई नीति AI-जनित सामग्री का उपयोग करने के लिए दंड का उल्लेख नहीं करती है, विकिपीडिया के प्रकटीकरण (disclosure) संबंधी दिशानिर्देशों के अनुसार, बार-बार दुरुपयोग "बाधाकारी संपादन का एक पैटर्न" बनाता है, और इसके परिणामस्वरूप ब्लॉक या प्रतिबंध लग सकता है। विकिपीडिया अपील प्रक्रिया के बाद संपादकों को उनके खाते बहाल करने का मार्ग प्रदान करता है।
विकिपीडिया ने कहा, "ब्लॉक को अवरोधक व्यवस्थापक (blocking admin) की सहमति से, यदि ब्लॉक स्पष्ट रूप से अनुचित था तो अन्य व्यवस्थापकों द्वारा ओवरराइड करके, या (बहुत ही दुर्लभ मामलों में) मध्यस्थता समिति (Arbitration Committee) को अपील करके पलटा जा सकता है।"
एक विकिमीडिया फाउंडेशन के प्रवक्ता ने Decrypt को बताया, "विकिमीडिया फाउंडेशन विकिपीडिया पर संपादकीय नीतियों और दिशानिर्देशों का निर्धारण नहीं करता है; स्वयंसेवक संपादक करते हैं।" "विकिपीडिया की ताकत हमेशा से इसका मानव-केंद्रित, स्वयंसेवक-संचालित मॉडल रहा है और रहेगा।"
वाशिंगटन विश्वविद्यालय में भाषा विज्ञान की प्रोफेसर एमिली एम. बेंडर के अनुसार, संपादन उपकरणों में भाषा मॉडल के कुछ उपयोग उचित हो सकते हैं, लेकिन संपादन और पाठ उत्पन्न करने के बीच एक स्पष्ट सीमा खींचना मुश्किल हो सकता है।
बेंडर ने Decrypt को बताया, "इसलिए आप एक भाषा मॉडल के साथ जो चीजें कर सकते हैं उनमें से एक है, उदाहरण के लिए, एक बहुत अच्छा वर्तनी जांचक (spell checker) बनाना।" "मुझे लगता है कि यह कहना उचित है कि संपादनों पर वर्तनी जांचक चलाना ठीक है। और यदि आप अगले स्तर तक जाते हैं, एक व्याकरण जांचक (grammar checker), तो वह भी ठीक हो सकता है।"
बेंडर ने कहा कि चुनौती तब आती है जब सिस्टम व्याकरण को ठीक करने से आगे बढ़कर सामग्री को बदलना या उत्पन्न करना शुरू कर देते हैं, यह देखते हुए कि बड़े भाषा मॉडल में उस तरह की जवाबदेही की कमी होती है जो मानव योगदानकर्ता सहयोगी ज्ञान परियोजनाओं में लाते हैं।
उन्होंने कहा, "सिंथेटिक पाठ उत्पन्न करने के लिए बड़े भाषा मॉडल का उपयोग करना, इन प्रणालियों का एक मूलभूत गुण है कि इसमें कोई जवाबदेही नहीं है, किसी के विश्वास या उसके पीछे खड़े होने से कोई संबंध नहीं है।" "जब हम बोलते हैं, तो हम अपने विश्वासों और जिसके लिए हम जवाबदेह हैं, उसके आधार पर बोलते हैं, न कि सच्चाई की किसी वस्तुनिष्ठ धारणा के आधार पर। और बड़े भाषा मॉडल के लिए वह नहीं है।"
बेंडर ने कहा कि AI-जनित संपादनों का व्यापक उपयोग साइट की प्रतिष्ठा को भी प्रभावित कर सकता है।
उन्होंने कहा, "अगर लोग इसके बजाय शॉर्टकट अपना रहे हैं और ऐसा कुछ बना रहे हैं जो विकिपीडिया संपादन या लेख जैसा दिखता है और उसे वहां डाल रहे हैं, तो इससे साइट का समग्र मूल्य और प्रतिष्ठा कम हो जाती है।"
नॉर्थईस्टर्न यूनिवर्सिटी में संचार अध्ययन के एसोसिएट प्रोफेसर जोसेफ रीगल, जो विकिपीडिया की संस्कृति और शासन का अध्ययन करते हैं, ने कहा कि समुदाय की प्रतिक्रिया सटीकता और स्रोत निर्धारण के बारे में लंबे समय से चली आ रही चिंताओं को दर्शाती है।
रीगल ने Decrypt को बताया, "विकिपीडिया AI-जनित गद्य से सावधान है।" "वे विश्वसनीय स्रोतों द्वारा किसी विषय के बारे में दिए गए सटीक विवरणों को गंभीरता से लेते हैं। AI की इस मोर्चे पर गंभीर सीमाएं रही हैं, जैसे कि 'मतिभ्रमित' दावे और मनगढ़ंत स्रोत।"
रीगल ने कहा कि विकिपीडिया की मुख्य नीतियां भी AI उपकरणों के बारे में संपादकों के दृष्टिकोण को आकार देती हैं, यह देखते हुए कि कई बड़े भाषा मॉडल को विकिपीडिया सामग्री पर प्रशिक्षित किया गया है। अक्टूबर में, विकिमीडिया फाउंडेशन ने कहा कि विकिपीडिया पर मानव विज़िट में साल-दर-साल लगभग 8% की गिरावट आई है क्योंकि खोज इंजन और चैटबॉट उपयोगकर्ताओं को साइट पर भेजने के बजाय सीधे अपने प्लेटफार्मों पर उत्तर प्रदान कर रहे हैं।
जनवरी में, विकिमीडिया फाउंडेशन ने माइक्रोसॉफ्ट, गूगल, अमेज़ॅन और मेटा सहित AI कंपनियों के साथ समझौतों की घोषणा की, जिससे उन्हें अपने एंटरप्राइज़ उत्पाद के माध्यम से विकिपीडिया सामग्री का उपयोग करने की अनुमति मिली, जो इसकी सामग्री के बड़े पैमाने पर पुन: उपयोग के लिए डिज़ाइन की गई एक वाणिज्यिक सेवा है।
रीगल ने कहा, "जबकि विकिपीडिया की सामग्री का उपयोग विकिपीडिया के लाइसेंस द्वारा अनुमत है, विकिपीडिया के बीच उन सेवाओं के बारे में अभी भी कुछ विद्वेष है जो समुदायों की सामग्री का दुरुपयोग करती हैं और फिर AI के परिणामस्वरूप उत्पन्न होने वाली 'स्लॉप' (अनुपयोगी सामग्री) से निपटने के लिए उन समुदायों पर अवांछित मांगें थोपती हैं।"
LLM के उपयोग पर प्रतिबंध के बावजूद, विकिपीडिया AI उपकरणों को अन्य भाषा संस्करणों से लेखों का अंग्रेजी में अनुवाद करने की अनुमति देता है, बशर्ते संपादक मूल पाठ को सत्यापित करें। नीति संपादकों को AI-जनित सामग्री की पहचान करने के लिए केवल लेखन शैली पर निर्भर न रहने की भी चेतावनी देती है और इसके बजाय इस बात पर ध्यान केंद्रित करने के लिए कहती है कि सामग्री विकिपीडिया की मुख्य नीतियों और योगदानकर्ता के संपादन इतिहास का अनुपालन करती है या नहीं।
अद्यतन में कहा गया है, "कुछ संपादकों की लेखन शैली LLM के समान हो सकती है।" "प्रतिबंधों को उचित ठहराने के लिए केवल शैलीगत या भाषाई संकेतों से अधिक सबूतों की आवश्यकता है, और पाठ की मुख्य सामग्री नीतियों के अनुपालन और संबंधित संपादक द्वारा हाल के संपादनों पर विचार करना सबसे अच्छा है।"
संपादक का नोट: इस लेख को प्रकाशन के बाद विकिपीडिया फाउंडेशन की टिप्पणी को शामिल करने के लिए अपडेट किया गया था।