
ویراستاران ویکیپدیا در بهروزرسانی اخیر سیاست خود، که استفاده از مدلهای زبان بزرگ برای نگارش یا بازنویسی مقالات را ممنوع میکند، به محدود کردن نحوه استفاده از هوش مصنوعی در این پلتفرم اقدام کردهاند.
این دستورالعمل جدید نشاندهنده نگرانی فزاینده در جامعه ویکیپدیا است که متن تولید شده توسط هوش مصنوعی میتواند با استانداردهای پلتفرم، به ویژه در مورد قابلیت تأیید و منابع معتبر، در تضاد باشد.
در بهروزرسانی سیاست آمده است: «متن تولید شده توسط مدلهای زبان بزرگ اغلب چندین مورد از سیاستهای اصلی محتوای ویکیپدیا را نقض میکند. به همین دلیل، استفاده از LLMها برای تولید یا بازنویسی محتوای مقالات ممنوع است، به جز استثنائات ذکر شده در زیر.»
این سیاست همچنان استفاده محدود از ابزارهای هوش مصنوعی را مجاز میداند، از جمله پیشنهاد ویرایشهای اساسی کپی برای نوشتههای خود یک ویراستار، مشروط بر اینکه سیستم اطلاعات جدیدی را اضافه نکند. با این حال، به ویراستاران توصیه میشود که این پیشنهادات را با دقت بررسی کنند.
در حالی که سیاست جدید به مجازاتهای استفاده از محتوای تولید شده توسط هوش مصنوعی اشارهای ندارد، طبق دستورالعملهای ویکیپدیا در مورد افشاگری، سوء استفاده مکرر "الگوی ویرایش مخرب" را تشکیل میدهد و ممکن است منجر به مسدود شدن یا ممنوعیت شود. ویکیپدیا به ویراستاران مسیری برای بازگرداندن حسابهایشان پس از فرآیند تجدید نظر ارائه میدهد.
ویکیپدیا اعلام کرد: «مسدودسازیها میتوانند با موافقت مدیر مسدودکننده، با لغو توسط سایر مدیران در صورتی که مسدودسازی به وضوح غیرقابل توجیه بوده باشد، یا (در موارد بسیار نادر) با تجدید نظر به کمیته داوری، لغو شوند.»
سخنگوی بنیاد ویکیمدیا به Decrypt گفت: «بنیاد ویکیمدیا سیاستها و دستورالعملهای ویراستاری ویکیپدیا را تعیین نمیکند؛ ویراستاران داوطلب این کار را انجام میدهند. قدرت ویکیپدیا همیشه مدل انسانمحور و داوطلبمحور آن بوده و خواهد بود.»
به گفته امیلی ام. بِندر، استاد زبانشناسی در دانشگاه واشنگتن، برخی از کاربردهای مدلهای زبان در ابزارهای ویرایش ممکن است منطقی باشد، اما ترسیم مرز مشخصی بین ویرایش و تولید متن میتواند دشوار باشد.
بندر به Decrypt گفت: «بنابراین یکی از کارهایی که میتوانید با یک مدل زبان انجام دهید، ساخت یک غلطگیر املایی بسیار خوب است، به عنوان مثال. من فکر میکنم منطقی است که بگوییم اجرای غلطگیر املایی روی ویرایشها اشکالی ندارد. و اگر به سطح بعدی، یعنی بررسیکننده گرامر، بروید، آن هم میتواند خوب باشد.»
بندر گفت چالش زمانی پیش میآید که سیستمها فراتر از تصحیح گرامر حرکت کرده و شروع به تغییر یا تولید محتوا میکنند، و اشاره کرد که مدلهای زبان بزرگ فاقد نوع مسئولیتی هستند که مشارکتکنندگان انسانی به پروژههای دانش جمعی میآورند.
او گفت: «استفاده از مدلهای زبان بزرگ برای تولید متن مصنوعی، یک ویژگی اساسی این سیستمها این است که هیچ مسئولیتی، هیچ ارتباطی با آنچه کسی باور دارد یا از آن دفاع میکند، وجود ندارد. وقتی ما صحبت میکنیم، بر اساس آنچه باور داریم و مسئولیت آن را بر عهده میگیریم، صحبت میکنیم، نه بر اساس یک مفهوم عینی از حقیقت. و این برای مدلهای زبان بزرگ وجود ندارد.»
بندر گفت استفاده گسترده از ویرایشهای تولید شده توسط هوش مصنوعی میتواند بر اعتبار سایت نیز تأثیر بگذارد.
او گفت: «اگر افراد به جای آن میانبر بزنند و چیزی را که شبیه یک ویرایش یا مقاله ویکیپدیا است بسازند و آن را در آنجا قرار دهند، در این صورت ارزش و اعتبار کلی سایت کاهش مییابد.»
جوزف ریگل، دانشیار مطالعات ارتباطات در دانشگاه نورثایسترن، که فرهنگ و حکمرانی ویکیپدیا را مطالعه میکند، گفت که واکنش جامعه منعکسکننده نگرانیهای دیرین در مورد دقت و منابع است.
ریگل به Decrypt گفت: «ویکیپدیا نسبت به نثر تولید شده توسط هوش مصنوعی محتاط است. آنها توصیفات دقیق از آنچه منابع معتبر درباره یک موضوع بیان میکنند را جدی میگیرند. هوش مصنوعی در این زمینه محدودیتهای جدی داشته است، مانند ادعاهای "توهمزده" و منابع ساختگی.»
ریگل گفت سیاستهای اصلی ویکیپدیا نیز نحوه نگاه ویراستاران به ابزارهای هوش مصنوعی را شکل میدهد، و اشاره کرد که بسیاری از مدلهای زبان بزرگ بر اساس محتوای ویکیپدیا آموزش دیدهاند. در اکتبر، بنیاد ویکیمدیا اعلام کرد که بازدیدهای انسانی از ویکیپدیا حدود 8 درصد سال به سال کاهش یافته است، زیرا موتورهای جستجو و چتباتها به طور فزایندهای پاسخها را مستقیماً در پلتفرمهای خود ارائه میدهند، به جای اینکه کاربران را به سایت بفرستند.
در ژانویه، بنیاد ویکیمدیا توافقنامههایی را با شرکتهای هوش مصنوعی، از جمله مایکروسافت، گوگل، آمازون و متا، برای اجازه دادن به آنها برای استفاده از مطالب ویکیپدیا از طریق محصول Enterprise خود، که یک سرویس تجاری طراحی شده برای استفاده مجدد در مقیاس بزرگ از محتوای آن است، اعلام کرد.
ریگل گفت: «در حالی که استفاده از محتوای ویکیپدیا توسط مجوزهای ویکیپدیا مجاز است، هنوز هم در میان ویکیپدیایان نوعی خصومت نسبت به سرویسهایی وجود دارد که محتوای جوامع را تصاحب میکنند و سپس خواستههای ناخواسته بر این جوامع تحمیل میکنند تا با انبوه آشغال هوش مصنوعی حاصل کنار بیایند.»
با وجود ممنوعیت استفاده از LLMها، ویکیپدیا استفاده از ابزارهای هوش مصنوعی را برای ترجمه مقالات از نسخههای زبانهای دیگر به انگلیسی مجاز میداند، مشروط بر اینکه ویراستاران متن اصلی را تأیید کنند. این سیاست همچنین به ویراستاران هشدار میدهد که تنها بر سبک نگارش برای شناسایی محتوای تولید شده توسط هوش مصنوعی تکیه نکنند و در عوض بر این تمرکز کنند که آیا این مطلب با سیاستهای اصلی ویکیپدیا و سابقه ویرایش مشارکتکننده مطابقت دارد یا خیر.
در این بهروزرسانی آمده است: «برخی از ویراستاران ممکن است سبک نگارشی مشابه LLMها داشته باشند. برای توجیه مجازاتها بیش از علائم سبکی یا زبانی نیاز به شواهد است و بهتر است به انطباق متن با سیاستهای اصلی محتوا و ویرایشهای اخیر ویراستار مورد نظر توجه شود.»
یادداشت ویراستار: این مقاله پس از انتشار برای افزودن نظرات بنیاد ویکیپدیا بهروزرسانی شده است.