سباق التعاقدات: الذكاء الاصطناعي والجيوش بين أرباح الشركات والمخاطر الأخلاقية

لقد أصبح مستقبل الحروب يتحدد بشكل متزايد من خلال تسابق الجيوش لدمج الذكاء الاصطناعي بشكل فعّال في أنظمتها. ونظراً لقدرة الذكاء الاصطناعي على إعادة تعريف القوة العسكرية، بات بعض الخبراء يُقارن بين ظهوره وبين ظهور الأسلحة النووية. وتتنوع استخدامات الذكاء الاصطناعي الحالية والمتوقعة في الحروب، وتشمل نطاقاً واسعاً من التطبيقات. وتُخصص الجيوش في جميع أنحاء العالم حصصاً متزايدة من مواردها للبحث عن حلول للمشكلات العسكرية عبر استخدام الذكاء الاصطناعي.

تتمتع شركات التكنولوجيا منذ فترة طويلة بعلاقات وثيقة مع حكوماتها وإدارات الدفاع الخاصة بها. وقد حصلت شركات أمريكية مثل آي بي إم (IBM) ومايكروسوفت (Microsoft) وأوراكل (Oracle) على عقود دفاعية ضخمة لتزويد البنتاغون بقدرات متقدمة في تخزين البيانات ومعالجتها وحوسبتها. وفي الآونة الأخيرة، بدأت شركات ناشئة في مجال التكنولوجيا الدفاعية مثل بالانتير (Palantir) وسكيل إيه آي (ScaleAI) تتنافس مع شركات دفاعية تقليدية عريقة مثل رايثيون (Raytheon) ولوكهيد مارتن (Lockheed Martin).

لا يشعر جميع المتخصصين في مجال التكنولوجيا في القطاع الخاص بالراحة في العمل مع الجيش. فعلى سبيل المثال، تبقى شركات التكنولوجيا الاستهلاكية الرائدة والمهيمنة – مثل جوجل (Google) وميتا (Meta)- على علاقات بعيدة مع البنتاغون؛ حيث تحظر السياسات الداخلية استخدام نماذجها للذكاء الاصطناعي لأغراض عسكرية أو للمراقبة.

مع تزايد الإنفاق العسكري العالمي على الذكاء الاصطناعي واشتداد المنافسة بين الشركات للفوز بعقود حكومية ضخمة، هل تستطيع أي شركة تكنولوجية كبرى أن تجلس على الهامش خاصة مع تزايد الطلب على تطبيقات الذكاء الاصطناعي في المجال العسكري؟

تسريع سلسلة القتل
هناك تاريخ طويل من التطورات التكنولوجية التي تُقدّر وترفع من شأن السرعة في العمليات العسكرية مثل “سلسلة القتل”. لقد تمثلت أول محاولة جادة لاستخدام الذكاء الاصطناعي في تسريع سلسلة القتل – أي دورة الاستهداف بأكملها بدءاً من جمع المعلومات الاستخبارية الأولية وحتى التقييم النهائي للأضرار- في مشروع مافن (Project Maven)، والذي أنشأه البنتاغون عام 2017. وقد استخدم مشروع مافن خوارزميات الرؤية الحاسوبية للتعرف على مواقع الأهداف وتحديدها من خلال صور الأقمار الاصطناعية والفيديو والرادار، وذلك للكشف عن الحركة وتتبع الأهداف.

وقد شهد مشروع مافن أول انتشار رئيسي له بعد غزو روسيا لأوكرانيا في عام 2022؛ حيث تم تقديم نسخة أساسية للقوات الأوكرانية للمساعدة في التعرف على المركبات العسكرية الروسية والأفراد والمباني وتحديدهم.

إلا أن مشروع مافن حقق نتائج متباينة. وكما يذكر ويؤكد أحد التحقيقات الصحفية حول المشروع أن: “الثلوج وأوراق الشجر الكثيفة والفخاخ الخداعية تعوق قدراته. وأنه في المناطق الصحراوية، مثل غرب العراق، حيث يمكن للظروف الجوية أن تُغير المشهد فجأة، قد تنخفض دقة مافن إلى أقل من 30%”.

ربما تكون الحرب الإسرائيلية الأخيرة على غزة هي الأجدر بلقب أول “حرب ذكاء اصطناعي” حقيقية. وذلك لأنها كانت على الأرجح أول حرب أدت فيها أنظمة الذكاء الاصطناعي دوراً محورياً في سلسلة القتل. فقد استخدم الإسرائيليون في هذه الحرب أنظمة الذكاء الاصطناعي لمعالجة مليارات نقاط البيانات لتصنيف احتمالية أن يكون أي شخص بعينه في المنطقة مقاتلاً.

وقد أظهر العمل العسكري الأمريكي الإسرائيلي ضد إيران عام 2026 كيف يمكن لسرعة وحجم الحرب أن يتطورا بشكل كبير من خلال استخدام أنظمة الذكاء الاصطناعي. فضرب 1000 هدف في اليوم الأول فقط من الحملة العسكرية في إيران، لا يمكن لأي إنسان محاكاته؛ وقد كشفت التصريحات والتحليلات أن الجيش الأمريكي اعتمد على أنظمة الذكاء الاصطناعي لإنشاء قائمة بالأهداف وترتيبها وتصنيفها حسب الأهمية وفي مدى زمني قصير.

فنحن نعيش اليوم في عالم “يتم فيه اتخاذ قرارات الاستهداف الأكثر أهمية في الحروب من قبل أنظمة عاجزة عن تفسير نفسها، تُوفرها شركات لا تخضع لأحد، في صراعات لا تتضمن أي مساءلة أو حساب”. ومن المتوقع أن يمتد تأثير الذكاء الاصطناعي – على المدى الطويل- إلى ما هو أبعد بكثير من مجرد قرارات الاستهداف وتسريع سلسلة القتل، ليشمل مجالات مثل: تحسين الخدمات اللوجستية ودعم القادة في اتخاذ القرارات. وسيزداد الطلب العسكري على الذكاء الاصطناعي، وكذلك ستزداد المنافسة بين الشركات للفوز بعقود دفاعية مربحة.

أولوية المصالح الأمريكية
يمكن فهم عقيدة الشركات التي تتعامل مع القوات المسلحة الأمريكية من منظور شركات الدفاع التقليدية التي تبيع منتجاتها بشكل أساسي للجهات الحكومية، وتحدد قيمها من منظور المهمة والواجب والأمن القومي. ففي هذا السياق، دأبت هذه الشركات على تبني لغة ونظام خدمة يتوافق مع قيم العملاء والمستخدمين؛ أي مع قيم القوات المسلحة. وبالمثل تتبنى شركات التكنولوجيا الدفاعية الجديدة اليوم نهجاً مشابهاً لشركات الدفاع التقليدية القديمة؛ وهو ما ظهر جلياً في رسالة “لماذا نخدم؟” التي نشرتها شركة بالانتير (Palantir) بالإضافة إلى وصف شركة أندوريل (Anduril) لعملها بأنه “خدمة وطنية في شكل من أشكال الابتكار”. وتقدم هاتين الشركتين مثالين بارزين على هذا النهج.

ويحاول مؤسسو هذه الشركات التكنولوجية الجديدة ومديروها التنفيذيون إظهار روح الوطنية لديهم لإثبات تميزهم عن بقية الشركات التكنولوجية التجارية الكبرى؛ ولذلك اتهم بيتر ثيل – المستثمر الرأسمالي الذي شارك في تأسيس شركة بالانتير- شركة جوجل ضمنياً بسلوك “يبدو خائناً” بزعمه أن الأخيرة قامت بمساعدة الحكومة الصينية بينما تراجعت عن عقد مع الحكومة الأمريكية بعد تعرضها لانتقادات من موظفيها.

ويُدرك العديد من شركات التكنولوجيا الأمريكية توجهات الرأي العام في واشنطن، ويُصرّح بشكل متزايد بأن هدفه الأساسي ليس الربح ولكن خدمة المصلحة الوطنية. وكما كتب بن بوخهايم-جوريسون مؤخراً على منصة War on the Rocks “الحرب على الصخور”: “في المؤتمرات وعروض المشاريع والكتابات العامة، يتم استخدام مصطلح “الخدمة” بشكل متزايد لوصف عمل الشركات الناشئة والموظفين والمستثمرين في مجال تكنولوجيا الدفاع”.

وفي المقابل، أصبحت حكومة الولايات المتحدة أكثر إلحاحاً على شركات الذكاء الاصطناعي بخدمة المصالح الأمريكية دون تردد، وخاصة بعد حصول هذه الشركات على عقود حكومية. وقد تجلّى هذا الاتجاه في أوضح صوره عندما أمر الرئيس دونالد ترامب الوكالات الفدرالية بوقف استخدام نظام كلود (Claude) الذي تنتجه شركة أنثروبيك (Anthropic). وقد انتهت المفاوضات بين البنتاغون وشركة أنثروبيك؛ حيث سعت الشركة، بحسب تصريحات رئيسها التنفيذي، للحصول على ضمانات تعاقدية تمنع استخدام منتجاتها وخدماتها بالكامل في المراقبة الجماعية والأسلحة ذاتية التشغيل. ورداً على ذلك، قام البنتاغون بتصنيف أنثروبيك كإحدى الشركات التي تشكل خطراً على سلسلة التوريدات.

ما بين المستخدمين وصفقات الدفاع
لا يتعين على شركات الذكاء الاصطناعي الرائدة أن تتعامل مع غضب السياسيين والمسؤولين الحكوميين المنزعجين فحسب؛ بل يتعين عليها أيضاً أن تأخذ في الاعتبار مشاعر قاعدة مستخدميها الأوسع. فعندما يتعلق الأمر بمقاولي الدفاع التقليديين، تكون الحكومة الأمريكية دائماً هي “العميل رقم واحد”، وغالباً ما تكون العميل الوحيد للأسلحة المتطورة التي يصممونها ويصنعونها ويطورونها. وفي المقابل، تأمل شركات الذكاء الاصطناعي أن يكون لديها مئات الملايين من المستخدمين النشطين أسبوعياً.

هذه ليست معضلة افتراضية بالنسبة لهذه الشركات. فبعد أن قررت أوبن إي آي (OpenAI) السماح لوزارة الدفاع الأمريكية باستخدام نماذج الذكاء الاصطناعي الخاصة بها في عملياتها السرية، غادر العديد من المستخدمين المنصة وألغوا اشتراكاتهم. وظهر موقع إلكتروني يُدعى “QuitGPT” أي “غادر جي بي تي” -يحث المستخدمين على ترك منصة شات جي بي تي (ChatGPT) مصحوباً برسالة بارزة تقول: “شات جي بي تي تقبل صفقة الروبوت القاتل لترامب، حان وقت المغادرة”- وقد غادر عدد ملحوظ من المستخدمين المنصة بالفعل. وقد حثّت الحملة مستخدمي شات جي بي تي على إلغاء اشتراكاتهم، مشيرة إلى مساهمة كبيرة من رئيس أوبن إي آي، جريج بروكمان، للجنة العمل السياسي “ماغا” (MAGA Inc) التابعة للرئيس دونالد ترامب. وأشارت أيضاً إلى أن إدارة الهجرة والجمارك الأمريكية (ICE) تستخدم أداة فحص السير الذاتية المدعومة بنموذج “شات جي بي تي-4” (ChatGPT-4).

ومن المفارقات، أن العديد من مستخدمي شات جي بي تي السابقين ينتقلون، بحسب التقارير، إلى نظام كلود الذي تنتجه شركة أنثروبيك. فقد لفت نظام كلود انتباههم بعد أن رفضت شركة أنثروبيك، كما ذكرنا، منح وزارة الدفاع الأمريكية حق الوصول غير المقيد إلى نماذجها. وسيظل السؤال الذي ستواجهه شركات الذكاء الاصطناعي الكبرى في السنوات المقبلة هو ما إذا كان فقدان المستخدمين والتخلي عن المبادئ الأخلاقية يستحق مقابل عائدات صفقات الدفاع.

المستقبل للأبحاث والدراسات المتقدمة