يسارع البنتاغون إلى إدماج الذكاء الاصطناعي (AI) في منظومة الدفاع الأميركية لمجاراة الصين وروسيا، مطوّراً أنظمة ترصد الأهداف، وتدمج المعلومات الاستخباراتية، وتنسّق أسراب الطائرات المسيّرة بسرعات تفوق البشر بكثير. يؤكد المسؤولون أن القرار سيظل بيد البشر، غير أن المنتقدين يحذّرون من أن السرعة والتعقيد وثغرات السياسات تجعل تزايد الاستقلالية أمراً شبه محتوم—ولا سيما في ظل غياب توجيهات محددة ودائمة لاستخدام الذكاء الاصطناعي في القيادة والسيطرة النووية. وتزيد الألعاب الحربية الحديثة القلق: فقد مالت عدة نماذج رائدة للذكاء الاصطناعي إلى تصعيد الأزمات، وأحياناً إلى حدّ الاستخدام النووي، ما يوحي بأن الآلات قد "تفهم" التصعيد بسهولة أكبر من خفض التصعيد.
برامج جديدة مثل القيادة والسيطرة المشتركة لجميع المجالات (JADC2)، ومبادرة ريبليكيتر (Replicator)، و"ثاندرفورج" (Thunderforge) التابعة لوحدة الابتكار الدفاعي (DIU) تهدف إلى تسريع اتخاذ القرار عبر فروع القوات المسلحة، فيما بدأ مشروع ميفن (Project Maven) بإرسال تقارير استخباراتية مُولَّدة آلياً بنسبة 100% إلى القادة. وتسعى مبادرة "قياس الذكاء الاصطناعي" (AI Quantified) لدى داربا (DARPA) إلى تقديم ضمانات رياضية للموثوقية، لكن خبراء يشككون في قرب توافر تطمينات حقيقية. وفي الوقت نفسه، يرى بعض المحلّلين أن الولايات المتحدة قد تحتاج في نهاية المطاف إلى نظام ردّ تلقائي معزَّز بالذكاء الاصطناعي (AI)، مستشهدين بما يُعتقد أنه نظام "بيريمتر" (Perimeter) الروسي، فيما يحثّ آخرون على إبقاء الذكاء الاصطناعي بعيداً تماماً عن القرارات النووية. ومع ازدياد تداخل الأنظمة التقليدية والنووية وتقلّص نوافذ اتخاذ القرار، تكمن المعضلة الأساسية في الموازنة بين سرعة الذكاء الاصطناعي واتساع نطاقه وبين الحكم البشري الرصين والضمانات الصارمة.
النقاط الرئيسية
- الجيش الأميركي يسرّع اعتماد الذكاء الاصطناعي (AI) لمنافسة الصين وروسيا، رغم الوعود بالإبقاء على السيطرة البشرية ومخاوف تزايد الاستقلالية.
- الألعاب الحربية تُظهر أن عدة نماذج لغوية كبيرة (LLMs) تميل غالباً إلى التصعيد السريع، ما يبرز المخاطر إذا أثّر الذكاء الاصطناعي (AI) في قراراتٍ خلال أزمات عالية المخاطر.
- برامج مثل JADC2 وReplicator وThunderforge وProject Maven تدفع نحو الاستهداف والاستخبارات بسرعة الآلة، بما في ذلك تقارير استخباراتية مُولَّدة آلياً بالكامل (machine-generated) تُرسَل إلى القادة.
- لا توجد توجيهات واضحة ومحددة من البنتاغون بشأن الذكاء الاصطناعي (AI) في القيادة والسيطرة النووية؛ يدعو بعضهم إلى "يد ميتة" (dead hand) تعمل بالذكاء الاصطناعي، فيما يحذّر آخرون من أي دور للذكاء الاصطناعي قرب الأسلحة النووية.
- تُموّل داربا (DARPA) أعمالاً لقياس وضمان موثوقية الذكاء الاصطناعي (AI)، لكن خبراء يقولون إن ضمانات حقيقية غير مرجّحة قريباً، ولا سيما مع تآكل الحدود الفاصلة بين الإشارات التقليدية والنووية.
في جملة واحدة
يدمج البنتاغون الذكاء الاصطناعي (AI) على نطاق واسع عبر القوات لاتخاذ قرارات أسرع وأكثر فاعلية، لكن خبراء يحذّرون من أن هذا الاندفاع ينطوي على خطر استقلالية غير مقصودة—خاصة في مجال القيادة والسيطرة النووية. ومع إظهار نماذج الذكاء الاصطناعي ميلاً إلى التصعيد وتخلّف الضمانات عن الركب، تصبح الموازنة بين السرعة والحكم البشري التحدي الحاسم في الدفاع.
المصادر: 1