كتبت هبة السيد الجمعة، 24 أبريل 2026 05:00 ص تعمل الجهات الحكومية المعنية بحوكمة الذكاء الاصطناعي على الانتقال بالمبادئ الأخلاقية العامة من مستوى التوجيهات النظرية إلى مستوى التطبيق العملي داخل الأنظمة والسياسات التنظيمية، ويهدف هذا التحويل إلى ضمان استخدام تقنيات الذكاء الاصطناعي بشكل مسؤول يوازن بين التطور التكنولوجي وحماية الإنسان والمجتمع. ويأتي مبدأ "التمركز حول الإنسان" في مقدمة هذه المبادئ، حيث يؤكد أن الهدف الأساسي من تطوير الذكاء الاصطناعي هو تعزيز قدرات الإنسان وليس استبداله، ويعني ذلك توجيه هذه التقنيات لدعم الأفراد في أداء مهامهم وتحسين كفاءتهم، مع الاستعداد للتحولات في سوق العمل عبر التدريب وإعادة التأهيل وخلق فرص جديدة، كما يركز هذا المبدأ على أن تبقى رفاهية الإنسان والشمول الاجتماعي والنمو الاقتصادي في صميم السياسات المرتبطة بالذكاء الاصطناعي. وفي إطار مبدأ العدالة، يتم التأكيد على ضرورة بناء أنظمة ذكاء اصطناعي خالية من التحيز والتمييز، ويتطلب ذلك رصد الانحياز في البيانات والخوارزميات والحد منه، إلى جانب تعزيز التنوع داخل فرق التطوير لضمان شمولية أكبر في عملية التصميم، كما يعد تمكين الأفراد من الاعتراض على القرارات الآلية عنصرًا أساسيًا لضمان العدالة، بالإضافة إلى التأكد من توافق الأنظمة الأجنبية مع المعايير المحلية وحماية البيانات، ويمتد هذا التوجه ليشمل دعم المساواة بين الجنسين وإتاحة الفرص للشباب في هذا المجال، مع الالتزام بالمعايير الأخلاقية الدولية. أما مبدأ المساءلة، فيركز على ضرورة وجود مسؤولية واضحة ومحددة عن نتائج استخدام أنظمة الذكاء الاصطناعي، فبالرغم من تطور هذه التقنيات، يظل الإنسان أو الجهة القانونية مسؤولة عن قراراتها وتبعاتها، كما يشدد هذا المبدأ على أهمية الرقابة البشرية، خاصة في التطبيقات الحكومية، إلى جانب إجراء تقييمات شاملة للأثر قبل تشغيل أي نظام، ويشمل ذلك تحليل المخاطر مقابل الفوائد، وتنفيذ تجارب تشغيلية محدودة قبل التوسع في الاستخدام لضمان الكفاءة والأمان. وتشير هذه المبادئ توجهًا تنظيميًا متكاملًا يهدف إلى بناء منظومة حوكمة للذكاء الاصطناعي تقوم على التوازن بين الابتكار التكنولوجي من جهة، وحماية الإنسان وضمان العدالة والمساءلة من جهة أخرى.