العالم الرقمي يغص بالنصوص، وبات من الصعب على نحو متزايد التمييز بين ما هو بشري وما هو آلي. لكن مجموعة من محرري ويكيبيديا، ركزت في البداية على تنظيف المقالات التي تم إنشاؤها بواسطة الذكاء الاصطناعي على الموسوعة الإلكترونية، ربما أطلقت عن غير قصد سباق تسلح جديدًا في السعي لجعل الذكاء الاصطناعي يبدو أكثر... حسنًا، إنسانية.
منذ أواخر عام 2023، كان متطوعو مشروع ويكيبيديا لتنظيف الذكاء الاصطناعي في مهمة بحث، حيث يقومون بدقة بوسم المقالات المشتبه في كتابتها بواسطة الذكاء الاصطناعي. حدد المشروع، الذي أسسه محرر ويكيبيديا الفرنسي إلياس لوبلو، أكثر من 500 مقالة للمراجعة. توج عملهم في أغسطس 2025 بقائمة رسمية من العلامات الدالة على كتابة الذكاء الاصطناعي - أنماط في اللغة والتنسيق تكشف عن أصل غير بشري.
الآن، وجدت تلك القائمة حياة ثانية غير متوقعة. أطلق رائد الأعمال التقني سيقي تشن إضافة مفتوحة المصدر تسمى "Humanizer" لمساعد الذكاء الاصطناعي Claude Code التابع لشركة Anthropic. هذه الأداة البسيطة ولكن الذكية تزود Claude بقائمة محرري ويكيبيديا، وتعطي الذكاء الاصطناعي بشكل أساسي التعليمات التالية: "لا تكتب بهذه الطريقة". نشر تشن الإضافة على GitHub، حيث اكتسبت زخمًا سريعًا، وحصدت أكثر من 1600 نجمة اعتبارًا من يوم الاثنين.
كتب تشن على X: "من المفيد حقًا أن ويكيبيديا ذهبت وجمعت قائمة مفصلة بعلامات كتابة الذكاء الاصطناعي. لدرجة أنه يمكنك ببساطة أن تطلب من نموذج اللغة الكبير الخاص بك ألا يفعل ذلك."
الآثار المترتبة على ذلك كبيرة. يتم تدريب نماذج اللغة الكبيرة (LLMs) مثل Claude على مجموعات بيانات نصية واسعة، وتعلم تقليد أساليب الكتابة البشرية. ومع ذلك، غالبًا ما تظهر عليها أنماط يمكن التنبؤ بها: لغة رسمية بشكل مفرط، وهياكل جمل متكررة، وميل إلى تضمين عبارات تمهيدية غير ضرورية. هذه هي بالضبط أنواع المراوغات التي حددها مشروع ويكيبيديا لتنظيف الذكاء الاصطناعي.
Humanizer، وهو في الأساس ملف مهارة لـ Claude Code، يستخدم ملفًا بتنسيق Markdown لإضافة قائمة بالتعليمات المكتوبة. من خلال تجنب هذه الأنماط بنشاط، تهدف الإضافة إلى جعل النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أقل قابلية للاكتشاف.
يثير هذا التطور أسئلة مهمة حول مستقبل إنشاء المحتوى وإمكانية خداع الذكاء الاصطناعي. مع ازدياد تطور نماذج الذكاء الاصطناعي في تقليد الكتابة البشرية، يصبح التمييز بين المحتوى الأصيل والمحتوى الاصطناعي أمرًا صعبًا بشكل متزايد. هذا له آثار على كل شيء بدءًا من الصحافة والبحث الأكاديمي وحتى المراجعات عبر الإنترنت ووسائل التواصل الاجتماعي.
تسلط جهود مشروع ويكيبيديا لتنظيف الذكاء الاصطناعي الضوء على أهمية الرقابة البشرية في عصر الذكاء الاصطناعي. لا يساعد عملهم في الحفاظ على سلامة ويكيبيديا فحسب، بل يوفر أيضًا رؤى قيمة حول خصائص النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. ومع ذلك، يشير التطور السريع للأدوات مثل Humanizer إلى أن لعبة القط والفأر بين كاشفات الذكاء الاصطناعي و"مؤنسات" الذكاء الاصطناعي قد بدأت للتو.
العواقب طويلة المدى لسباق التسلح هذا غير مؤكدة. هل سيصبح الذكاء الاصطناعي في النهاية غير قابل للتمييز عن الكتابة البشرية؟ أم ستظهر طرق جديدة للكشف لمواكبة التكنولوجيا المتطورة؟ شيء واحد واضح: القدرة على التقييم النقدي والتحقق من صحة المعلومات ستكون أكثر أهمية من أي وقت مضى.
Discussion
Join the conversation
Be the first to comment