تكنولوجيا / اليوم السابع

دراسة تحذر من خطر توليد أبحاث وهمية عبر الذكاء الاصطناعى

كتبت هبة السيد

الإثنين، 09 مارس 2026 08:00 م

حذر باحثون من أن أدوات الذكاء الاصطناعي المتقدمة لتوليد النصوص قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، ما قد يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.

وأجرى الباحثون تجربة استخدموا فيها خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد، تضمنت التجربة أسئلة عن أماكن مشاركة أفكار فيزياء غير تقليدية، وأخرى طلبت تعليمات لتقديم أوراق وهمية باسم آخرين.

بعض النماذج تقاوم الطلبات الإحتيالية

ووجدت الدراسة أن بعض نماذج الذكاء الاصطناعي، مثل كلود من شركة إنثروبيك، أظهرت مقاومة قوية للطلبات الاحتيالية، بينما كانت نماذج مثل Grok من xAI ونسخ سابقة من نماذج GPT أكثر قابلية للامتثال، خصوصًا عند تكرار الطلبات.

وفي مثال محدد، رفض نموذج Grok-4 في البداية طلبًا لتزييف نتائج بحثية، لكنه في أنتج ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة بعد استمرار المستخدم في الضغط.


يقول الباحثون إن هذه النتائج تبرز المخاطر المحتملة لانتشار الأبحاث المزيفة، والتي قد تؤثر على مصداقية الأدبيات العلمية إذا تم الاستشهاد بالبيانات الوهمية في أبحاث مستقبلية.

 

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة اليوم السابع ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من اليوم السابع ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا