العالم الرقمي يغص بالنصوص، وبشكل متزايد، يصعب تحديد من – أو ما – الذي يقوم بالكتابة. لكن مجموعة من محرري ويكيبيديا المتيقظين، الذين ركزوا في البداية على إبقاء المقالات التي تم إنشاؤها بواسطة الذكاء الاصطناعي خارج الموسوعة الإلكترونية، ربما أثاروا عن غير قصد سباق تسلح جديدًا في السعي لجعل الذكاء الاصطناعي يبدو، حسنًا، أكثر إنسانية.
منذ أواخر عام 2023، كان متطوعو مشروع ويكيبيديا لتنظيف الذكاء الاصطناعي (WikiProject AI Cleanup)، بقيادة محرر ويكيبيديا الفرنسي إلياس لوبلو، يلاحقون المحتوى الذي تم تأليفه بواسطة الذكاء الاصطناعي والذي يتسلل إلى المنصة. لقد قاموا بوضع علامات على أكثر من 500 مقالة للمراجعة، وأصبحوا على دراية وثيقة بالعلامات الدالة على كتابة الذكاء الاصطناعي. في أغسطس 2025، قاموا بإضفاء الطابع الرسمي على ملاحظاتهم في دليل متاح للجمهور، وهو عبارة عن قائمة مفصلة بالأنماط اللغوية والتنسيقية التي تكشف عن يد روبوت الدردشة.
هذا الدليل، الذي يهدف إلى المساعدة في تحديد وإزالة المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، وجد الآن حياة ثانية غير متوقعة. أطلق رائد الأعمال التقني سيقي تشن مؤخرًا "Humanizer"، وهو مكون إضافي مفتوح المصدر لمساعد الذكاء الاصطناعي Claude Code من Anthropic. تقوم هذه الأداة البسيطة بتزويد Claude بقائمة محرري ويكيبيديا التي تضم 24 علامة تدل على روبوتات الدردشة، وتقوم بشكل أساسي بتوجيه الذكاء الاصطناعي لتجنب هذه الأنماط وتقليد الكتابة البشرية بشكل أكثر فعالية.
كتب تشن على X: "من المفيد حقًا أن ويكيبيديا ذهبت وجمعت قائمة مفصلة بعلامات كتابة الذكاء الاصطناعي". "إلى درجة أنه يمكنك ببساطة أن تطلب من LLM الخاص بك ألا يفعل ذلك."
تداعيات هذا التطور كبيرة. فمن ناحية، يسلط الضوء على التطور المتزايد للذكاء الاصطناعي وقدرته على التكيف والتعلم. ومن ناحية أخرى، فإنه يثير مخاوف بشأن احتمال أن يخدع الذكاء الاصطناعي ويتلاعب، مما يطمس الخطوط الفاصلة بين المحتوى الذي يتم إنشاؤه بواسطة الإنسان والآلة.
يحدد دليل مشروع ويكيبيديا لتنظيف الذكاء الاصطناعي أنماطًا مثل اللغة الرسمية المفرطة، وهياكل الجمل المتكررة، والميل إلى تجنب الاختصارات. هذه كلها خصائص، على الرغم من أنها ليست خاطئة في جوهرها، غالبًا ما تميز كتابة الذكاء الاصطناعي بأنها متميزة عن النثر البشري. من خلال تدريب الذكاء الاصطناعي على تجنب هذه الأنماط، يمكن لأدوات مثل Humanizer أن تجعل من الصعب بشكل متزايد التمييز بين الكتابة البشرية الأصلية وتقليد الذكاء الاصطناعي المتطور.
تقول الدكتورة أنيا شارما، أستاذة علم اللغة الحاسوبي في جامعة ستانفورد: "التحدي هو أن الذكاء الاصطناعي يتطور باستمرار". "مع ازدياد تطور نماذج الذكاء الاصطناعي، فإنها ستتعلم حتماً تقليد أساليب الكتابة البشرية بشكل أكثر إقناعاً. وهذا يخلق لعبة القط والفأر المستمرة بين أولئك الذين يحاولون اكتشاف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وأولئك الذين يحاولون جعله غير قابل للكشف."
يثير هذا التطور أيضًا أسئلة أخلاقية. هل من الأخلاقي استخدام الذكاء الاصطناعي لتقليد الكتابة البشرية عن عمد؟ ما هي العواقب المحتملة لعالم يصبح فيه من الصعب بشكل متزايد التمييز بين المحتوى الذي يتم إنشاؤه بواسطة الإنسان والآلة؟
يمكن أن يكون لاستخدام الذكاء الاصطناعي "لإضفاء الطابع الإنساني" على روبوتات الدردشة آثار بعيدة المدى على مختلف القطاعات، من التسويق وخدمة العملاء إلى الصحافة والتعليم. تخيل روبوتات الدردشة المدعومة بالذكاء الاصطناعي والتي يمكنها المشاركة بسلاسة في المحادثات، أو كتابة نصوص تسويقية مقنعة، أو حتى إنشاء مقالات إخبارية لا يمكن تمييزها عن تلك التي يكتبها الصحفيون البشريون.
في حين أن دليل محرري ويكيبيديا كان يهدف في البداية إلى مكافحة انتشار المعلومات المضللة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، إلا أنه قدم عن غير قصد أداة قيمة لأولئك الذين يسعون إلى تعزيز قدرات الذكاء الاصطناعي. مع استمرار تطور الذكاء الاصطناعي، من الضروري مراعاة الآثار الأخلاقية والمجتمعية لهذه التطورات ووضع استراتيجيات لضمان الشفافية والمساءلة في عصر الذكاء الاصطناعي. الخط الفاصل بين الإنسان والآلة يتلاشى، وهي محادثة نحتاج إلى إجرائها الآن.
Discussion
Join the conversation
Be the first to comment