يا للمفارقة التي أصابت عالم الذكاء الاصطناعي. اكتشفت GPTZero، وهي شركة ناشئة متخصصة في الكشف عن الذكاء الاصطناعي، استشهادات وهمية في أوراق بحثية قُدّمت في NeurIPS، وهو مؤتمر بارز في مجال الذكاء الاصطناعي. قامت الشركة بفحص 4,841 ورقة بحثية مقبولة من المؤتمر الذي عُقد الشهر الماضي في سان دييغو. واكتشفوا 100 استشهاد مزيف في 51 ورقة بحثية.
NeurIPS هو مكان مرموق للغاية لأبحاث الذكاء الاصطناعي. يثير هذا الاكتشاف تساؤلات حول استخدام نماذج اللغة الكبيرة (LLMs) في الكتابة الأكاديمية. في حين أن 100 استشهاد وهمي من بين عشرات الآلاف لا يمثل أهمية إحصائية، إلا أنه يسلط الضوء على مشكلة محتملة. الاستشهاد غير الدقيق لا يبطل البحث، لكنه يقوض الدقة الأكاديمية.
أقرّ NeurIPS بالمشكلة. وأخبروا Fortune أنه حتى مع وجود مراجع غير صحيحة، فإن محتوى الورقة البحثية ليس بالضرورة باطلاً. يفتخر المؤتمر بمعاييره العالية. تثير هذه الحادثة نقاشًا حول دور الذكاء الاصطناعي في البحث والحاجة إلى التحقق الدقيق من الحقائق.
يتم تدريب نماذج اللغة الكبيرة (LLMs) على مجموعات بيانات ضخمة. يمكنهم أحيانًا إنشاء معلومات معقولة ولكنها خاطئة، تُعرف باسم "الهلوسات". تؤكد هذه الحادثة على أهمية الإشراف البشري عند استخدام أدوات الذكاء الاصطناعي. من المرجح أن يناقش مجتمع الذكاء الاصطناعي هذه النتائج ويستكشف طرقًا لمنع حدوثها في المستقبل. ومن المتوقع إجراء مزيد من التحقيقات وتحديث المبادئ التوجيهية للأبحاث المدعومة بالذكاء الاصطناعي.
Discussion
Join the conversation
Be the first to comment