تكنولوجيا / اليوم السابع

العلامات المائية الرقمية.. الدرع الواقى للتمييز بين الواقع والمحتوى المولد آلياً

كتب مايكل فارس

الجمعة، 20 مارس 2026 07:00 ص

مع الانتشار الواسع والمذهل لأدوات الذكاء الاصطناعي القادرة على توليد صور ونصوص ومقاطع صوتية بالغة الواقعية، ظهرت أزمة ثقة عالمية في الفضاء الرقمي، لقد أصبح من الصعب جداً على المتصفح العادي التفريق بين الصورة الفوتوغرافية الحقيقية والصورة التي تم تزييفها أو اختلاقها بالكامل بواسطة الآلة، وهو ما يُعرف بظاهرة "التزييف العميق Deepfakes.

وللحد  من انتشار التضليل الإعلامي والاحتيال، اتجهت كبرى شركات التكنولوجيا إلى تطوير تقنية "العلامات المائية الرقميةDigital Watermarking"، لا نعني هنا الشعار المرئي التقليدي الذي يُلصق فوق الصور، بل هي بصمات خفية ومشفرة يتم دمجها في البنية البرمجية الدقيقة للملفات، بحيث لا تراها العين البشرية، ولكن يمكن لأجهزة الكمبيوتر والمنصات الرقمية قراءتها فوراً لتحديد ما إذا كان المحتوى طبيعياً أم تم إنشاؤه عبر خوارزميات الذكاء الاصطناعي.

في تقرير تحليلي من موقع "وايرد" (Wired) المعني بالتكنولوجيا العميقة، تم تسليط الضوء على مبادرة تقنية ضخمة يُطلق عليها اسم "التحالف من أجل أصل المحتوى وموثوقيته C2PA، و يضم هذا التحالف شركات عالمية في مجالات الكاميرات، والبرمجيات، ووسائل التواصل الاجتماعي، موضحًا أن هذا المعيار الجديد يعمل كـ "جواز سفر رقمي" يُرفق بالصورة منذ لحظة التقاطها أو توليدها.

وأشار التقرير إلى أن المنصات الكبرى بدأت بالفعل في تبني هذه التقنية وعرض أيقونة صغيرة تخبر المستخدم بتاريخ الملف والأداة التي تم استخدامه لإنشائه، بهدف إرساء قواعد الشفافية وتمكين المستخدمين من الوثوق فيما يشاهدونه على الإنترنت.

كيف تعمل تقنية إثبات مصدر المحتوى رقميًا؟

تعتمد العلامات المائية المتقدمة وتشفير المنشأ على تكنولوجيا تشبه البلوك تشين (Blockchain) في مفهومها، عند إنشاء صورة ببرنامج ذكاء اصطناعي، يتم زرع "بيانات وصفية دقيقة" (Metadata) مشفرة داخل بكسلات الصورة بطريقة معقدة بحيث تتوزع على مساحة الصورة بالكامل، هذا التوزيع العشوائي يضمن بقاء العلامة المائية حتى لو قام أحدهم بقص الصورة، أو تغيير ألوانها، أو أخذ لقطة شاشة لها، وعندما يتم رفع هذه الصورة على منصة تدعم معايير الثقة الرقمية، تقوم خوارزميات المنصة بالبحث عن هذه البصمة الخفية، إذا وجدتها، تُظهر تلقائياً للمستخدمين تحذيرًا أو علامة تصنيف (Label) تفيد بأن هذا المحتوى "مُولد بواسطة الذكاء الاصطناعي"، مما يحبط محاولات التضليل المتعمدة قبل انتشارها السريع.

خطوات للتحقق من مصداقية المحتوى الرقمي قبل مشاركته

في ظل التطور المتسارع للذكاء الاصطناعي، يجب على كل مستخدم أن يكون درعاً أولاً لمنع انتشار الشائعات عبر الخطوات التالية:

1. البحث عن "أيقونات المصداقية" أو تفاصيل البيانات الوصفية المرفقة مع الصور في منصات التواصل الاجتماعي، والتي أصبحت متاحة بشكل متزايد لتوضيح مصدر المحتوى وكيفية تحريره

2. في حالة الشك بصورة معينة تدعي خبراً مهماً أو سياسياً، يجب استخدام أدوات الفحص العكسي للصور والتطبيقات المجانية المخصصة لقراءة العلامات المائية الرقمية غير المرئية لاكتشاف بصمة الذكاء الاصطناعي.

3.  التدقيق البصري في التفاصيل التي لا تزال خوارزميات التوليد تخطئ فيها أحيانًا، مثل تناسق أصابع اليدين، تداخل النصوص أو اللوحات الإعلانية في الخلفية، واتجاه الظلال مقارنة بمصادر الإضاءة، قبل إعادة نشر المحتوى.
 

ملحوظة: مضمون هذا الخبر تم كتابته بواسطة اليوم السابع ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من اليوم السابع ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا