في ظلّ انتشار المعلومات المضلّلة المولّدة بالذكاء الاصطناعي على شبكات التواصل الاجتماعي، تبرز أدوات للكشف عن التضليل الإعلامي، لكنّها قد تكون مخادعة بدورها وهدفها أحياناً مجرّد ابتزاز المال، ما يزيد الطين بلّة. وينبّه باحثون من خطر استخدام هذه الأدوات المريبة بسوء نيّة لتشويه سمعة جهات معيّنة والمساس بمصداقية محتويات أصلية. وأحصى صحفيون متخصّصون في الاستقصاء الرقمي ثلاث أدوات من شأنها أن تكشف إلى أيّ مدى تأثّر نصّ ما بالذكاء الاصطناعي. وخلصت هذه الأدوات التي جرّبت بأربع لغات مختلفة إلى نتائج خاطئة مفادها أن بعض النصوص هي ثمرة الذكاء الاصطناعي، مع محاولة ابتزاز المال من مستخدميها. على سبيل المثال، قامت «جاست دان ايه آي» (JustDone AI) بتحليل مقال عن الحرب في الشرق الأوسط من إعداد صحفيين وخلصت إلى أن محتواه مولّد بالذكاء الاصطناعي بنسبة «80 %». واقترحت إعادة صياغته لإزالة آثار هذه التقنية. وأشارت الصفحة إلى «إضفاء طابع بشري على النصّ المولّد بالذكاء الاصطناعي» قبل الإحالة إلى «نصّ أصلي بنسبة 100 %» لا يُكشَف عنه إلا بعد تسديد مبلغ قد يصل إلى 9,99 دولار. وأنتجت أداتان أخريان، هما «تيكست غارد» (TextGuard) و«ريفاينلي» (Refinely) بدورهما نتائج خاطئة مع محاولة كسب المال. أدوات «احتيال» وأفاد الفريق التقني في «تيكست غارد» بأن «نظامنا يعمل بواسطة نماذج حديثة للذكاء الاصطناعي وتعدّ النتائج التي يقدّمها موثوقة في إطار تكنولوجيتنا». وأضاف «لا يمكننا لا ضمان النتائج ولا مقارنتها بتلك الصادرة عن أنظمة أخرى». وأشارت مجموعة «جاست دان» من جانبها إلى أنه «ما من كاشف للذكاء الاصطناعي يمكنه ضمان دقّة بنسبة 100 %». وأقرّت بأن نسختها المجانية «قد تعطي نتائج أقلّ دقّة» بسبب «الطلب الكبير واستخدام نظام مخفّف سريع النفاذ». وجرّب صحفيون الأدوات مع عدّة نصوص بشرية المصدر، بالهولندية واليونانية والمجرية والإنجليزية. وصُنّفت كلّ المحتويات في خانة الذكاء الاصطناعي، بما في ذلك مقتطفات أدبية مجرية كلاسيكية تعود لعام 1916. وبدا أن «جاست دان» و«ريفاينلي» قادرتان على العمل حتّى بدون نفاذ إلى الإنترنت، ما يدفع إلى الظنّ بأن النتائج الصادرة عنهما قد تكون آتية من نصّ معدّ مسبقاً أكثر مما هي ثمرة تحليل تقني معمّق. وتقول ديبورا فيبر-فولف، الأكاديمية المقيمة في ألمانيا التي أجرت أبحاثاً عن أدوات الكشف هذه «ليست أدوات كشف بل احتيال بحجّة إضفاء طابع بشري»، مشيرة إلى أنها تقدّم بدائل عبثية. المساس بالمصداقية قد تُستغلّ هذه الأدوات للمساس بالمصداقية. ففي المجر مثلا، قال مؤثّرون موالون للحكومة في مطلع العام إن مستنداً أعدّته المعارضة في إطار حملة انتخابية كان بالكامل ثمرة الذكاء الاصطناعي. وبغية تدعيم أقوالهم، نشروا على شبكات التواصل الاجتماعي لقطات شاشة فيها خلاصات «جاست دان». وتهدف الأدوات التي جرّبها صحفيون خصوصاً إلى جذب طلّاب أو باحثين يريدون إخفاء آثار استخدامهم للذكاء الاصطناعي. وقالت شركتان تعملان في هذا المجال إن المستخدمين هم من جامعات عريقة، مثل كورنيل في شمال شرقي الولايات المتحدة. وأكّدت الجامعة من جهتها «عدم وجود أيّ علاقة رسمية مع الشركات التي توفّر أدوات كشف عن الذكاء الاصطناعي»، مستبعدة أن تقدّم هذه الأدوات «حلّاً فعلياً» لسوء استخدام هذه التكنولوجيات. وقد يلجأ المدقّقون في صحّة الأخبار إلى أدوات كشف قائمة على الذكاء الاصطناعي للتحقّق من الصور وعمليات التلاعب. لكنها تُستخدم بالإضافة إلى أدوات أخرى تكميلية ولا يسلّم بنتائجها على نحو قاطع.