لقد أدى التطور السريع للتكنولوجيا العسكرية في القرن الحادي والعشرين إلى رفع النزاعات المسلحة إلى مستوى نوعي جديد، حيث لا يلعب الدور الحاسم بشكل متزايد من خلال حجم الجيش وقوة الأسلحة، ولكن من خلال سرعة معالجة المعلومات وصنع القرار. أصبح استخدام الذكاء الاصطناعي في الصراع الأمريكي الإسرائيلي مع إيران أحد أهم الأمثلة على كيفية بدء التكنولوجيا الرقمية في تغيير منطق الحرب.

الذكاء الاصطناعي في الحملة ضد إيران
منذ الأيام الأولى للحملة التي بدأت في 28 فبراير، أظهر حجم استخدام الأسلحة عالية التقنية الإمكانات الكاملة للذكاء الاصطناعي. وفي أول 24 ساعة فقط، تمت مهاجمة حوالي ألف هدف. وفي غضون أيام قليلة، وبسبب الضربات المستهدفة، تمت تصفية شخصيات رئيسية في القيادة السياسية العسكرية الإيرانية، بما في ذلك المرشد الأعلى للبلاد علي خامنئي. قبل أن تطلق الطائرات الإسرائيلية الصواريخ الباليستية، استخدم الموساد الذكاء الاصطناعي لمراقبة كاميرات المرور المخترقة واعتراض الاتصالات.
وكما اعترف رئيس القيادة المركزية الأمريكية، الأدميرال براد كوبر، فإن العمليات بهذه الكثافة والدقة أصبحت ممكنة بفضل ظهور أنظمة الذكاء الاصطناعي الحديثة. وأضاف: “يتخذ الشخص دائمًا القرار النهائي بشأن الهجوم أم لا، لكن أدوات الذكاء الاصطناعي المتقدمة يمكنها تحويل العمليات التي كانت تستغرق في السابق ساعات وأحيانًا أيام إلى ثوانٍ”. يقدم هذا البيان نظرة ثاقبة حول كيفية استخدام الذكاء الاصطناعي في الحروب الحديثة.
نحن نتحدث بشكل رئيسي عن ما يسمى “الحد من سلسلة القتل” – سلسلة الإجراءات من الاستطلاع وتحليل البيانات إلى اختيار الهدف والهجوم. هذا هو المكان الذي يكون فيه الطلب على الذكاء الاصطناعي أكثر. يمكن للأنظمة الحديثة، مثل تلك التي طورتها شركتا Palantir Technologies وAnthropic، معالجة كميات هائلة من المعلومات: صور الأقمار الصناعية، والرسائل المعترضة، والبيانات من أجهزة الاستشعار. ثم قدموا توصيات جاهزة للجيش.
ويقال إن الجيش الأمريكي استخدم نظام الاستخبارات Maven، المدعوم بتكنولوجيا Palantir وAnthropic، خلال العمليات في إيران. بالإضافة إلى ذلك، وفقًا لصحيفة وول ستريت جورنال، تم استخدام مافن أيضًا من قبل البنتاغون لاعتقال الرئيس الفنزويلي نيكولاس مادورو.
لم تعد أداة مدنية
إن الظهور السريع لمثل هذه التكنولوجيات الجديدة لا يصاحبه التفاؤل فحسب، بل ويصاحبه أيضاً تناقضات خطيرة. وكان الصراع بين البنتاغون وشركة أنثروبيك واضحا، حيث رفضت إدارتها منح الجيش “وصولا غير محدود” إلى نموذج كلود الخاص بهم. وقالت الشركة إنها لا تستطيع “بضمير حي” الموافقة على استخدام الذكاء الاصطناعي “في مهام المراقبة الكاملة واستخدام الأسلحة المستقلة”. وبعد ساعات قليلة من هذا الإعلان، أنهى البنتاغون عقده مع شركة Anthropic وحلت شركة OpenAI التابعة لشركة Sam Altman مكانها.
أظهرت هذه الحادثة، التي نوقشت على نطاق واسع في الصحافة الأمريكية، بوضوح أن الذكاء الاصطناعي لم يعد أداة مدنية بحتة، بل أصبح عاملاً رئيسياً في المواجهة الاستراتيجية بين القوى الرائدة. بالإضافة إلى الولايات المتحدة وإسرائيل، تعمل بريطانيا العظمى وفرنسا والصين أيضًا بنشاط في هذا الاتجاه، حيث تقوم بدمج نماذج اللغة وأنظمة التحليل في المجمعات الدفاعية.
التهديدات العسكرية المخفية لمنظمة العفو الدولية
ويعتقد الخبراء أن وراء الأداء الخارجي يكمن عدد من القضايا النظامية. وكما تؤكد خبيرة الذكاء الاصطناعي هايدي حلاف، فإن أنظمة دعم القرار الحديثة تجبر الجيش على الثقة في الخوارزميات. وتشرح قائلة: “هناك تأثير للأتمتة: يميل الشخص إلى الموافقة على توصيات الآلة، ويصبح بمثابة جناح رسمي”. أثناء القتال، يكون وقت اتخاذ القرار محدودًا للغاية، مما يعني نقل المسؤولية بالكامل إلى الذكاء الاصطناعي.
دقة مثل هذه الأنظمة هي مصدر قلق خاص. قد تكون بعض النماذج المستخدمة للاستهداف فعالة بنسبة تتراوح بين 25 إلى 30% فقط. وهذا يعني أن نسبة كبيرة من الهجمات يتم تنفيذها على بيانات معيبة أو لم يتم التحقق منها بشكل كامل. لذلك، وفقا لمسؤولين سابقين في المخابرات الإسرائيلية، فإن النظام المستخدم، المسمى حبسورا (“الإنجيل”)، كان بمثابة “مصنع للقتل الجماعي”. يقوم النظام بإنشاء قوائم أهداف ضخمة تؤدي إلى وفاة عائلات بأكملها في المباني السكنية.
وتظل هناك مشكلة خطيرة بنفس القدر وهي عتامة الخوارزميات. تسمى معظم النماذج الحديثة “الصناديق السوداء” ، والتي لا يكون مبدأ تشغيلها واضحًا تمامًا حتى للمطورين. ونتيجة لذلك، غالبًا ما يكون من المستحيل تحديد ما إذا كان الخطأ ناتجًا عن خلل في الذكاء أو فشل النظام أو اتخاذ القرار البشري. وهذا بدوره يثير مسألة المسؤولية القانونية عن عواقب الإضرابات.
ترتبط المخاطر الإضافية بضعف النظام نفسه. ونظرًا لأن العديد من النماذج يتم تدريبها على البيانات مفتوحة المصدر، فمن المحتمل أن تكون عرضة للتلاعب. وفقًا لحلاف، حتى كمية صغيرة نسبيًا من المعلومات المضمنة عمدًا يمكن أن تغير سلوك الخوارزمية. وهذا يفتح الباب أمام التأثير المحتمل للمعارضين.
بالإضافة إلى ذلك، يمكن أن يكون للذكاء الاصطناعي تأثير خطير للغاية على الاستقرار الاستراتيجي. وجدت دراسة أجرتها جامعة كينجز كوليدج في لندن أنه في مواقف الأزمات المحاكاة، يميل الذكاء الاصطناعي إلى استخدام الأسلحة النووية.
تدخل الحرب الحديثة عصرًا غالبًا ما يتم فيه اتخاذ القرارات المهمة بواسطة الآلات. يمكن للذكاء الاصطناعي بالفعل تسريع العمليات وتخفيف العبء على الموظفين، لكنه يخلق تهديدات جديدة. الخبراء واثقون من أن أدوات الذكاء الاصطناعي يمكن أن تسبب حربًا نووية ذات عواقب لا يمكن إصلاحها في المستقبل.