كتبت سماح لبيب
السبت، 28 فبراير 2026 11:00 مأثار الخلاف بين شركة Anthropic ووزارة الدفاع الأمريكية جدلاً واسعًا في صناعة الذكاء الاصطناعي حول حدود الاستخدام الأخلاقي للتقنيات الحديثة، يأتي هذا الصراع بعد رفض الشركة الامتثال لشروط عقد عسكري جديد يُلزمها بالسماح للجيش الأمريكي باستخدام نماذج الذكاء الاصطناعي الخاصة بها لأي غرض قانوني، بما في ذلك المراقبة الجماعية واستخدام الأسلحة الفتاكة ذاتية التشغيل.
خلفية الصراعوفقًا للتقارير، يسعى وزير الدفاع Pete Hegseth إلى تعديل العقود الحالية لشركات الذكاء الاصطناعي مع وزارة الدفاع، بما يمنح الجيش الأمريكي صلاحيات واسعة للوصول إلى تقنياتهم ، بينما وافقت شركتا OpenAI و xAI على الشروط الجديدة، رفضت أنثروبيك التنازل عن خطوطها الحمراء الأخلاقية.
موقف أنثروبيكأكد الرئيس التنفيذي للشركة، Dario Amodei، أن الشركة لن تسمح باستخدام تقنيتها في المراقبة الجماعية للأمريكيين أو الأسلحة الذاتية القتل، مشيرًا إلى أن التهديدات لا تُغير موقفنا ، ويعتبر هذا الموقف التزامًا بالمعايير الأخلاقية للشركة حتى في مواجهة خسائر محتملة بعقود مالية كبيرة مع الحكومة.
الإجراءات الحكوميةفي خطوة تصعيدية، صنّف البنتاجون شركة Anthropic على أنها تشكل خطراً على سلسلة التوريد ، وهو تصنيف يُستخدم عادةً لتحذير القطاع من تهديدات قد تمس الأمن القومي ، وقد يؤثر هذا التصنيف على عقود الشركة مع الحكومة الفيدرالية ويهدد استمراريتها في تقديم خدماتها للبنتاجون.
ردود فعل الصناعةوتركزت ردود الفعل حول المخاطر الأخلاقية المحتملة، إذ أعرب موظفون في شركات تقنية تعمل مع البنتاجون عن قلقهم من استخدام الذكاء الاصطناعي لأغراض المراقبة الجماعية والأسلحة الفتاكة، معتبرين أن الهدف الأصلي من التقنية يجب أن يكون تحسين حياة الناس، لا التحكم أو القتل.
ويُمثّل الصراع الحالي نموذجًا حقيقيًا للصراع بين الأخلاقيات والتمويل العسكري في صناعة الذكاء الاصطناعي ، ويعكس موقف أنثروبيك التزامًا صريحًا بالحدود الأخلاقية، مما قد يشكل معيارًا مستقبليًا لشركات الذكاء الاصطناعي في التعامل مع العقود العسكرية والتهديدات الحكومية.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة اليوم السابع ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من اليوم السابع ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.
