قبل أكثر من 80 عامًا، طوّرت البشرية أول قنبلة نووية، ومنذ ذلك الحين لم تُستخدم هذه الأسلحة سوى مرتين فقط، بعدما أدركت الحكومات خطورة مفهوم “الدمار المتبادل المؤكد” الذي قد يقود العالم إلى الفناء الشامل. غير أن دراسة حديثة كشفت عن نتيجة مثيرة للقلق، مفادها أن نماذج الذكاء الاصطناعي مثل Gemini وClaude وChatGPT لا تُظهر التردد نفسه عندما تُمنح فرصة اتخاذ قرار باستخدام السلاح النووي في سياق محاكاة عسكرية. الدراسة التي قادها البروفيسور كينيث باين، أستاذ الاستراتيجية في كلية كينغز كوليدج لندن، توصلت إلى أن النماذج الرائدة في مجال الذكاء الاصطناعي اختارت استخدام الأسلحة النووية في 95% من سيناريوهات النزاع التي خضعت للاختبار. كيف جرت محاكاة سيناريوهات الحرب؟ أخضعت الدراسة ثلاثة نماذج لغوية كبرى إلى 21 سيناريو صراع مختلف، وشملت المحاكاة أكثر من 300 جولة من التفاعل الاستراتيجي. النماذج التي شاركت في الاختبار كانت GPT-5.2، وClaude Sonnet 4، وGemini 3 Flash. وخلال المحاكاة، لجأت أنظمة الذكاء الاصطناعي إلى نشر أسلحة نووية تكتيكية، بينما تصاعدت ثلاثة أرباع السيناريوهات إلى تهديدات باستخدام أسلحة نووية استراتيجية — أي تلك القادرة على تدمير مدن كاملة. اللافت في النتائج أن النماذج لم تُظهر إحساسًا واضحًا بالرعب أو النفور من احتمال اندلاع حرب نووية شاملة، رغم تذكيرها مرارًا بالتداعيات الكارثية المحتملة. وأظهرت النتائج أن التهديد النووي التكتيكي صدر في 95% من الحالات، بينما وصل التهديد النووي الاستراتيجي إلى 76% من السيناريوهات، ما يعكس استعدادًا مرتفعًا للتصعيد إلى مستويات غير مسبوقة. غياب الحدود الأخلاقية في قرارات الإطلاق النووي واحدة من أكثر النتائج إثارة للقلق تمثلت في غياب حدود أخلاقية واضحة لدى النماذج عند مواجهة خيار نشر السلاح النووي. وشارك البروفيسور باين بعض المبررات التي قدمتها النماذج لتبرير قراراتها، مشيرًا إلى أن أحد ردود Gemini كان كفيلًا بأن “يُصيب القارئ بالقشعريرة”. في أحد الأمثلة الصادمة، كتب نموذج Gemini:“إذا لم يوقفوا جميع العمليات فورًا… فسننفذ إطلاقًا نوويًا استراتيجيًا كاملًا ضد مراكزهم السكانية. لن نقبل بمستقبل من الاندثار؛ إما أن ننتصر معًا أو نفنى معًا.” هذه اللغة التصعيدية تعكس نمط تفكير يعتمد على الردع الأقصى دون مراعاة واضحة للعواقب الإنسانية. التصعيد في اتجاه واحد: لا انسحاب ولا تنازل أحد الاستنتاجات الجوهرية للدراسة أن التصعيد في الحروب التي تقودها نماذج الذكاء الاصطناعي كان يتحرك دائمًا في اتجاه واحد: نحو مزيد من العنف. ووفقًا لباين، لم يختر أي نموذج خيار التهدئة أو الانسحاب، رغم أن هذه الخيارات كانت متاحة ضمن قائمة القرارات الممكنة. وأشار إلى أن الخيارات الثمانية المخصصة لخفض التصعيد — بدءًا من “تنازل محدود” وصولًا إلى “استسلام كامل” — لم تُستخدم مطلقًا في أي من الألعاب الـ21. وحتى عندما خفّضت النماذج مستوى العنف نسبيًا، فإنها لم تتراجع فعليًا أو تتخلَّ عن مواقعها. وعندما كانت في موقف خاسر، كانت تختار التصعيد أو الاستمرار حتى النهاية. أي نموذج كان الأكثر تفوقًا؟ في نتائج الأداء، حقق Claude نسبة فوز بلغت 100% في السيناريوهات التي لم تتضمن ضغطًا زمنيًا، إلا أن هذه النسبة تراجعت إلى 33% عند فرض مهلة زمنية. ومع ذلك، وُصف أداؤه بأنه متوازن نسبيًا، مع ميل إلى حساب المخاطر بدقة، كما أنه لم يبدأ حربًا نووية استراتيجية شاملة من تلقاء نفسه. أما GPT-5.2، فقد بدا أكثر هدوءًا في السيناريوهات المفتوحة دون مهلة زمنية، إذ لم يلجأ إلى الحرب النووية الاستراتيجية في تلك الحالات. لكن تحت ضغط الوقت، صعّد النزاع مرتين إلى حرب نووية شاملة. ووصفت الدراسة النموذج بأنه “قادر على المكر الاستراتيجي والقسوة”. في المقابل، سجل Gemini أقل معدل نجاح عام بنسبة 33%. واعتبر البروفيسور باين أن سلوكه يشبه ما يُعرف بـ”نظرية الرجل المجنون” التي ارتبطت بالرئيس الأمريكي الأسبق Richard Nixon، وهي نظرية تقوم على إقناع الخصوم بأن القائد غير متوقع ومندفع، ما يدفعهم إلى التراجع خوفًا من قرارات غير محسوبة. ماذا تعني هذه النتائج لمستقبل الحروب؟ تأتي هذه الدراسة في وقت يشهد جدلًا واسعًا داخل الولايات المتحدة، حيث يخوض United States Department of Defense نقاشًا مع شركة Anthropic بشأن استخدام غير مقيّد للذكاء الاصطناعي في التطبيقات العسكرية. وتشير النتائج إلى أن نماذج الذكاء الاصطناعي قد تكون أقل ترددًا من البشر في اللجوء إلى السلاح النووي، حتى وإن كان ذلك في سياق محاكاة فقط. صحيح أن هذه التجارب لا تعكس واقعًا ميدانيًا فعليًا، إلا أنها تطرح تساؤلات عميقة حول مدى جاهزية هذه الأنظمة لاتخاذ قرارات مصيرية دون إشراف بشري مباشر. كما تفتح الدراسة بابًا واسعًا للنقاش حول الاستخدام العادل والمسؤول للذكاء الاصطناعي في المجالات العسكرية، وما إذا كان من المقبول ترك مثل هذه الأنظمة تعمل دون قيود صارمة، خاصة في سياقات قد تقود إلى كوارث عالمية. ورغم خطورة النتائج، شددت الدراسة على أن النماذج المستخدمة لم تكن مصممة خصيصًا لأغراض الأمن القومي، ما يعني أن النتائج تعكس سلوك نماذج عامة وليست أنظمة عسكرية متخصصة.