من غزة إلى العالم: الذكاء الاصطناعي بين القوة والشرعية
في نيسان/أبريل 2024، كشف تحقيق استقصائي نشرته مجلة “+972” أن الجيش الإسرائيلي يستخدم نظاماً يُعرف بـ”لافندر”، مدعوماً بالذكاء الاصطناعي، لتصنيف آلاف الأشخاص تحت عنوان “أهداف محتملة” في غزة. وهو ما أثار الانتباه أن التحقيق يفيد بأن تأثير تلك الأنظمة كان كبيراً في عمليات الجيش إلى درجة أنهم تعاملوا مع مخرجات آلة الذكاء الاصطناعي “كما لو كانت قراراً بشرياً”. ووصف الضباط العملية بأنها شبه أوتوماتيكية. يعني تصنيف هدف من أجل توجيه ضربة، هذه المهمة التي تتطلب عادة فريقاً ووقتاً، ويمكن أن تمتد إلى أيام وأسابيع أحياناً، صارت ضمن مهام الآلة.[1]
هنا تبدأ المسألة الحقيقية. لا تكمن المشكلة في أن الآلة “تضغط الزر”، إنما في تحوّل توصيتها إلى عنصر مهيمن على القرار البشري، فيغدو التدخل البشري شكلياً أو محدود الزمن. فتمسّ هذه النقطة جوهر مبدأ “السيطرة البشرية الفاعلة” الذي يشكّل أحد مرتكزات النقاش القانوني الدولي حول أنظمة الأسلحة المدعومة بالذكاء الاصطناعي. وحين تتحول التوصية إلى مسار شبه إلزامي، تتزعزع سلسلة المسؤولية التقليدية التي وضع عليها القانون الدولي الإنساني منذ القرن التاسع عشر: إنسان يأمر، إنسان ينفّذ، إنسان يُحاسَب.
هدف هذا المقال تفكيك وهمٍ بعينه آخذٍ في الانتشار في الخطاب الرسمي والإعلامي المحيط بالحرب على غزة: أن التفوق في الذكاء الاصطناعي العسكري يمنح صاحبه شرعية ضمنية، أو يجعل مساءلته أمراً عابراً. ويتجلى هذا الوهم في صورتين متكاملتين؛ الأولى مؤسساتية، حين يصف مدير عام وزارة الدفاع الإسرائيلية اللواء، إيال زامير، الذكاء الاصطناعي العسكري بأنه “يغير قواعد اللعبة”؛ وهو ما يجعل إسرائيل “الدولة الرائدة في تكنولوجيا الدفاع”[2] والثانية إعلامياً، حين تؤطر صحيفة “Jerusalem Post” هذا التفوق التقني باعتباره “رادعاً ومحقّقاً للاستقرار الإقليمي”، وكأن القوة التكنولوجية تُسوّغ نفسها بنفسها وتغني عن أي رقابة قانونية.[3] بيد أن مجلة Global” & “Ethics Politics نشرت دراسة أكاديمية محكّمة في تموز/يوليو 2025 تفند هذا الوهم من أساسه: “أنظمة الذكاء الاصطناعي العسكرية تفتقر إلى الشرعية الأخلاقية؛ ليس لأنها غير فعالة، إنما لأنها تذيب الرابط بين الفاعلية الأخلاقية البشرية والنتائج القاتلة”، و”الشرعية الأخلاقية بمعناها الدقيق تستلزم وجود فاعلين بشريين قادرين على تحمل المسؤولية عن الأضرار.”[4]
الأخطر من ذلك، أن بعض مَن يقعون تحت وطأة هذه القوة قد ينزلقون إلى جَلد الذات، فيحوّلون السؤال من: “مَن يضبط استخدام هذه التقنية؟” إلى “لماذا تخلّفنا عنها؟”. وهذا انتقال نفسي وسياسي خطِر؛ لأنه يبدّل موقع النقاش من مساءلة القوة إلى تمجيدها. نحاول هنا فهم كيف أتاح غياب الإطار القانوني الملزم لأنظمة الذكاء الاصطناعي العسكرية عملها في منطقة رمادية، تلتقي فيها ثلاثة أنواع من الغموض: غموض التعريف، وغموض الإسناد، وغموض التحقق؛ لتنتج معاً حالة شبه استثنائية: تقنية قادرة على توجيه الضربات، ولا يوجد حتى الآن اتفاق دولي على كيفية تسميتها أو محاسبة مَن يستخدمها.
هيبة التكنولوجيا أداة استعمارية
عند الحديث عن التفوق التكنولوجي، تتسلل فكرة سامة إلى وعي مَن يقعون تحت الظلم: أن ما حلّ بهم عقاب تاريخي على قصور ذاتي، وأن الهزيمة شهادة على التأخر. يجلد الناس أنفسهم، ويتكوّرون على ذواتهم، ويحوّلون السؤال السياسي: مَن يملك القوة، ولماذا؟ إلى سؤال حضاري: لماذا نحن متأخرون؟
هذه الآلية ليست جديدة. حين وصل الأوروبيون إلى أفريقيا في القرن التاسع عشر حاملين مدافع ماكسيم وبنادق مارتيني-هنري، استخدموا التكنولوجيا سلاحاً ميدانياً وحجة أيديولوجية في آن واحد: التفوق العسكري دليل على التفوق الحضاري، والخضوع دليل على استحقاق الخضوع. كتب هيلير بيلوك ساخراً في قصيدته “The Modern Traveller” سنة 1898: “مهما حدث، نحن نملك مدفع ماكسيم (Maxim Gun)، وهم لا يملكونه”. لم تكن السخرية بريئة، كانت تلخيصاً لمنطق إمبراطوري كامل.[5]
اليوم، لم تتغير الأداة بقدر ما تضخّمت وتشعّبت، فالمنطق القديم القائل إن مَن يملك القوة يملك حق تعريف القانون، وجد في الذكاء الاصطناعي العسكري أداةً تمنحه مظهر الموضوعية وتُخفي طابعه السياسي؛ إذ تُضيف التقنية إلى القهر طبقةً من الحياد الزائف يصعب الطعن فيها.
.. والرسالة الضمنية هي نفسها: مَن يملك التقنية يملك حق تعريف القانون وتحديد مَن يستحق الحماية. القبول بهذه المعادلة خيار سياسي يُقدَّم في زيّ موضوعية تقنية، وثمة فارق كبير بين الأمرين.
إن القانون الإنساني واضح: امتلاك هذه التقنية لا يمنح أحداً شرعية تلقائية، ولا يُلزم مَن يقع تحت وطأتها بالقبول بمنطق التفوق التكنولوجي. وليست المسألة في نهاية المطاف تقنية، إنما سياسية وقانونية وإنسانية، وتحتاج إلى نقاش لم يبدأ بعد بالجدية التي تستحقها.
استراتيجية اللا-إلزام
لا يمكن فهم الموقف الدولي من الذكاء الاصطناعي العسكري من دون استيعاب المسار الذي رسمته الولايات المتحدة منذ البداية؛ إذ آثرت منذ اللحظة الأولى صوغ القواعد بدلاً من الخضوع لها. ففي شباط/فبراير 2023، وعلى هامش مؤتمر “نزع التسليح في لاهاي”، أطلقت واشنطن “الإعلان السياسي للاستخدام العسكري المسؤول للذكاء الاصطناعي”،[6] وهي وثيقة تصف ممارسات مثلى وتوجيهات عامة من دون أن تُضيف أي التزامات جديدة إلى الدول الموقّعة أو تُغيّر من التزاماتها القانونية القائمة. وقد انضمت إليها 57 دولة، بينها إسرائيل والمملكة المتحدة وأستراليا واليابان وكوريا الجنوبية، بينما رفضت الصين وروسيا الانضمام.[7] كانت الرسالة واضحة: نعم للمبادئ، لا للإلزام. وحين عقدت “قمة الذكاء الاصطناعي المسؤول في المجال العسكري” (REAIM) الثانية في سيول في أيلول/سبتمبر 2024، جاءت هي الأُخرى بوثيقة سياسية غير ملزمة.[8]
في هذا السياق، جاء تاريخ 24 كانون الأول/ديسمبر 2024 ليسجّل خطوة لافتة على الورق: إقرار الجمعية العامة للأمم المتحدة القرار 79/239؛ أول قرار في تاريخها يتعلق تحديداً بالذكاء الاصطناعي في المجال العسكري وتداعياته على السلم والأمن الدوليين. وقد نال القرار 165 صوتاً مؤيداً، وصوتت كوريا الشمالية وروسيا ضده، بينما امتنعت بيلاروسيا وإثيوبيا وإيران ونيكاراغوا والمملكة العربية السعودية وسورية. وقد كلّف القرار الأمين العام بإعداد تقرير موضوعي يرصد الاستخدامات الفعلية والتحديات القانونية،[9] فأصدر في حزيران/يونيو 2025 التقرير (A/80/78). وثّق التقرير استخدامات ميدانية بعينها: أدوات ذكاء اصطناعي تُولّد توصيات بالضربات، وتُثير مخاوف جدية حول التناسب والرقابة البشرية حين يُفرط المشغّلون في الاتكاء على مخرجاتها، وأنظمة تُنشئ قواعد بيانات تربط الأفراد بالجماعات المسلحة، مع ما ينطوي عليه ذلك من خطر سوء التعريف حين تكون البيانات منحازة أو منقوصة، محذّراً من أن الذكاء الاصطناعي ربما “يجعل تحديد المسؤول أمراً شبه مستحيل” في القانون الدولي.[10]
وفي الميدان، كانت الوقائع تتشكّل بمعزل عن كل ذلك. حيث وثّق معهد ليبر (Lieber Institute) في ويست بوينت أن نظام “لافندر” الإسرائيلي المدعوم بالذكاء الاصطناعي أنتج، في الأسابيع الستة الأولى بعد 7 تشرين الأول/أكتوبر 2023، نحو 37,000 توصية استهداف، مع هامش زمني لا يتجاوز 20 ثانية للمراجعة البشرية لكل اسم.[11] وقد رصد تقرير “اللجنة العالمية للذكاء الاصطناعي المسؤول في المجال العسكري” (GC REAIM) الصادر في أيلول/سبتمبر 2025 خطورة هذا النمط، محدداً خطين أحمرين: حظر استخدام الذكاء الاصطناعي لاختيار الأهداف والتعامل معها باستقلالية، ومنع دمجه في القرارات النووية.[12] وكلا الخطين[13] يصفان ممارسات موثّقة فعلاً على أرض المعركة.
ثم جاء تشرين الثاني/نوفمبر 2025، ليكشف عن طبيعة “التوافق” الدولي الذي بدا واسعاً في كانون الأول/ديسمبر 2024: تحوّلت كل من إسرائيل والولايات المتحدة من التصويت لصالح القرار إلى التصويت ضده في اللجنة الأولى للأمم المتحدة، لتنضما إلى روسيا وكوريا الشمالية في معسكر الرفض.[14] وأوضحت الولايات المتحدة الأميركية موقفها بأن “إنشاء أي إجراء تنظيمي جديد تحت مظلة الأمم المتحدة سيكون غير ملائم”، مكتفيةً بالإشارة إلى الإعلان السياسي غير الملزم الذي أطلقته بنفسها.[15] التوافق الواسع على الورق والتصعيد الميداني المتزامن ليسا تناقضاً، فهما وجهان لاستراتيجية واحدة قوامها المشاركة في صوغ القواعد لضمان ألا تُقيّد أحداً.
في هذا الفراغ، تعمل أنظمة الذكاء الاصطناعي العسكرية عملياً في موقع “سلاح لم يُحظر بعد”: لا يوجد تعريف قانوني ملزم يحكم تشغيلها، ولا معيار واضح لتحديد المسؤول حين تقع أضرار في سلسلة تضم المطوّر والجهة العسكرية والمبرمج، وهو ما وصفه خبراء القانون الدولي بـ”فراغ المسؤولية” الذي يمنح الإفلات من العقاب لجميع أطراف هذه السلسلة.
وفي الجهة الأُخرى من الأطلسي، يبدو المشهد أكثر مفارقة. دخل قانون الذكاء الاصطناعي الأوروبي “EU AI Act” حيّز التنفيذ في 1 آب/أغسطس 2024، ووُصف بأنه أول تشريع شامل وملزم من نوعه في العالم لتنظيم الذكاء الاصطناعي. غير أن هذا الإنجاز التشريعي يحمل في طيّاته استثناءً جوهرياً، فالقانون لا ينظّم تطبيقات الذكاء الاصطناعي المخصصة حصراً للأغراض العسكرية والدفاعية والأمن القومي، الأمر الذي يُفضي إلى “نقطة عمياء” في منظومة الحوكمة الأوروبية، تحديداً في المجال الأكثر خطورة. يعود السبب إلى أن الدفاع والأمن القومي لا يزالان ضمن سيادة الدول الأعضاء، وليس ضمن صلاحيات الاتحاد الأوروبي المباشرة.[16]
وحتى عندما تحاول شركة تكنولوجيا ضبط هذه النماذج بعيداً عن اتخاذ القرار في المجال العسكري، تواجه قراراً سياسياً مضاداً. أحدث مثال على ما يجري في هذا الشأن هو قضية التوتر المتصاعد بين شركة “أنثروبيك” المطوِّرة لنموذج الذكاء الاصطناعي “كلود” ووزارة الدفاع الأميركية. فقد وقّعت “أنثروبيك” عقداً مع البنتاغون بقيمة تصل إلى 200 مليون دولار في تموز/يوليو 2025، مع إبقاء خطين أحمرين: حظر استخدام نموذجها “كلود” في الأسلحة الذاتية الكاملة، ومنع توظيفه في المراقبة الجماعية للمواطنين الأميركيين.[17] وقد وصف وكيل وزارة الدفاع الأميركية للبحث والهندسة، إميل مايكل، هذه القيود بأنها “غير ديمقراطية”، مؤكداً أن الوزارة لن تسمح لأي شركة بفرض سياسات تتجاوز ما أقرّه الكونغرس، وأن “أي شركة تريد بيع منتجاتها لوزارة الحرب يجب أن تسمح لها بأداء مهامها المشروعة”، وأن تقليص القيود على شركات الذكاء الاصطناعي جزء من استراتيجية “الحرص على بقاء الولايات المتحدة في مقدمة السباق”، معتبراً أن الشركات الأميركية في الذكاء الاصطناعي “ركيزة استراتيجية وطنية” يجب حمايتها من أي عائق تنظيمي.[18] وفي نهاية شباط/فبراير، استدعى وزير الحرب الأميركي والرئيس التنفيذي لشركة “أنثروبيك”، بيت هيغسيث، داريو أمودي إلى البنتاغون، مهدداً بتصنيف الشركة كـ”خطر على سلسلة الإمداد”، وهو وصف كان حتى وقت قريب يُستخدم في الإشارة إلى خصوم أجانب كشركة “هواوي” الصينية.
وما يزيد المشهد تعقيداً أن هذا التوتر لا يجري في فراغ سياسي؛ إذ في الوقت الذي تتصادم فيه شركة “أنثروبيك” مع البنتاغون، تشنّ شركات التكنولوجيا الأميركية الكبرى حملة منظمة لتشكيل التشريعات بما يخدم مصالحها. فوفق تحقيق نشرته صحيفة “فايننشال تايمز”، تتسابق مجموعات الضغط المدعومة من وادي السيليكون لإنفاق ما لا يقل عن 265 مليون دولار في انتخابات التجديد النصفي الأميركية المقبلة، بهدف دعم مرشحين يعارضون أي تشريع ملزم بشأن الذكاء الاصطناعي، تحت شعار أن القواعد التنظيمية “ستمكّن الصين من بلوغ التفوق العالمي في الذكاء الاصطناعي.”[19]
التقنية أسرع من التشريع
تتطور الأنظمة البرمجية وتُنشر وتُعدَّل بسرعة تعجز المنظومات التشريعية عن مواكبتها. فبينما تحتاج المعاهدة الدولية إلى سنوات من التفاوض والتصديق والتفسير القانوني، يمكن لنموذج ذكاء اصطناعي أن يتغير جوهرياً بتحديث برمجي واحد. وخلافاً للأسلحة التقليدية كالغواصات أو الأسلحة الكيميائية التي يمكن تعريفها بدقة، فإن تحديد ما يُعدّ “ذكاءً اصطناعياً عسكرياً” أمر ملتبس من الناحيتين التقنية والقانونية، إذ تتداخل تطبيقاته العسكرية مع الاستخدامات المدنية كالتحليل التنبؤي ومعالجة الصور، وهو ما يعني أن أي تعريف قانوني يُصاغ اليوم، قد يصبح متجاوزاً تقنياً قبل أن يدخل حيّز التنفيذ.
وتزداد المعضلة تعقيداً حين تُضاف إليها ديناميكية سباق التسلح؛ فالتنافس الاستراتيجي بين الدول، والقناعة بضرورة اكتساب التفوق على الخصم، يخلقان ضغطاً مستمراً لنشر القدرات بسرعة، وهو ما قد يسبق بكثير عمليات التحقق والاختبار وآليات الحوكمة. والنتيجة أن الدول والشركات التي تتحكم في هذه التقنية تحصل على هامش واسع للإفلات من أي إطار تنظيمي. فالمسألة لا تتعلق بنصّ القانون فحسب؛ بل أيضاً بالذكاء الاصطناعي يغيّر ميادين الحرب فعلياً، والصراع الدائر اليوم يتمحور حول الجهة التي ستحدّد قواعد هذا التحوّل وتوقيته.
التفوّق لا يصنع شرعية
بعد استعراض مسار اللا-إلزام الدولي، وفراغ المسؤولية، وتسارع التقنية على حساب التشريع، ومصالح شركات التكنولوجيا الأميركية، يستدعي المشهد تفكيك افتراضٍ يسري في الخطاب الرسمي والإعلامي المحيط بالحرب على غزة: أن امتلاك تقنية متقدمة يمنح صاحبها شرعية تلقائية في توظيفها. هذا الافتراض حاضر في التصريحات الرسمية لوزارة الدفاع الإسرائيلية، وفي التأطير الإعلامي الإسرائيلي المحيط بالحرب، ولا ينشأ في فراغ.
هذه المعادلة، التي تتسلل ضمنياً إلى كثير من النقاشات حول الذكاء الاصطناعي العسكري الإسرائيلي في غزة، تخلط بين القدرة التقنية والمشروعية القانونية، وهما مستويان مختلفان تماماً. فالتطور التقني لا يُعفي الدول من الخضوع لقواعد القانون الدولي الإنساني ، ولا يُسقط عنها الالتزام بمبادئ التمييز والتناسب والاحتراز. كما أن غياب إطار حوكمة دولي شامل للذكاء الاصطناعي العسكري يشكّل فراغاً تنظيمياً خطِراً يترك تقنيات بالغة القوة بلا رقابة، ويُغذي انتشار التسلح، ويُضعف القانون الدولي، وفق ما خلص إليه مركز كارنيغي (Carnegie Endowment) للسلام الدولي.[20]
في هذا السياق، حدّد خبراء القانون الدولي الإنساني ثلاثة أسئلة معيارية يتعيّن طرحها حين تدّعي أي جهة استخدام الذكاء الاصطناعي في العمليات العسكرية:
أولاً: هل خضع هذا النظام لمراجعة قانونية موثقة قبل استخدامه، تحمل توقيعات واضحة من سلطات قانونية وتقنية وعملياتية؟
ثانياً: هل يمكن تتبّع كل قرار وتدخل في سلسلة النظام بصورة تُمكّن من التحقيق لاحقاً عند وقوع انتهاك؟ ثالثاً: هل تتوفر آلية مراجعة مستمرة ومستقلة لا تتوقف عند لحظة التشغيل الأولى؟
إن عبء الإثبات في هذه الأسئلة لا يقع على الضحايا ولا على المراقبين الدوليين، فهو يقع على الدولة المستخدِمة، لأن الشفافية والقدرة على التدقيق والرقابة البشرية ضرورات جوهرية في كل مرحلة: تشكيل الهدف، والتحقق منه، والاشتباك، وتقييم ما بعد الضربة.[21]
وليست المطالبة بهذه الشفافية ترفاً أكاديمياً. فقد أكد المشاركون في حوارات “الذكاء الاصطناعي والسلام والأمن 2025″ برعاية مكتب الأمم المتحدة لشؤون نزع التسليح أن الممارسة المسؤولة تستلزم استثماراً متعمداً، ولا تنشأ تلقائياً من مجرد التحديث التقني، وأن المساءلة يجب أن تبقى مع الفاعلين البشريين طوال دورة حياة النظام كاملة.[22] وما لم تُلزَم الدول بتقديم هذا الدليل علناً، يبقى الادعاء بـ”الاستخدام المسؤول” خطاباً دعائياً يصعب اختباره أو مساءلته، فلا يكتمل التفوّق التقني إلاّ بخضوعه للمساءلة.
[1] Yuval Abraham, “‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza”, +972 Magazine, 3/4/2024.
[2]Sharon Wrobel, “AI a ‘game-changer’ for future of warfare, says Defense Ministry director-general”, The Times of Israel, 10/12/2024.
[3] Anna Ahronheim “Israel’s strategic edge in the age of AI & autonomous warfare” The Jerusalem Post, 20/7/2025.
[4]“The ethical legitimacy of autonomous Weapons systems: reconfiguring war accountability in the age of artificial Intelligence” Ethics & Global Politics Vol. 18, Issue. 3, 28/6/2025.
[5] Hilaire Belloc & Basil Temple Blackwood, The Modern Traveller (London: Project Gutenberg, 2020).
[6]“Convention on Certain Conventional Weapons – Informal Meeting of Experts”, United Nations, (2014).
[7] “Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy” US Department of State, 13/12/2023.
[8]“Outcome of Responsible AI in Military Domain (REAIM) Summit 2024” Ministry of Foreign Affairs, 10/9/2024.
[9]“Resolution 79/236” adopted by the General Assembly, United Nation, 24/12/2024.
[10]“AI in conflict: keeping humanity in control” United Nations, 14/10/2025.
[11]Emelie Andersin “Military Use of Biometrics Series – Israel’s Use of AI-DSS and Facial Recognition Technology: The Erosion of Civilian Protection in Gaza” Lieber Institute West Point, 24/10/2025.
[12] Responsible by Design: Strategic Guidance Report on the Risks, Opportunities, and Governance of Artificial Intelligence in the Military Domain (Netherlands: The Hague Centre for Strategic Studies, 2025).
[13] John Nicholas Thomas Shanahan “Artificial Intelligence and Nuclear Command and Control: It’s Even More Complicated Than You Think” Arms Control Association, (September 2025).
[14] “General Assembly Adopts More Than 60 Resolutions, Decisions of Its First Committee (Disarmament and International Security)” United Nations, 1/12/2025.
[15] “Resolution 79/239 “Artificial Intelligence in the military domain and its implications for international peace and security” General Assembly – United Nations.
[16] “Recital 24”, EU: Artificial Intelligence Act, 7/12/2024.
[17] Tina Nguyen & Hayden Field, “Inside Anthropic’s existential negotiations with the Pentagon” The Verge, 24/2/2026.
[18]Sydney Joseph Freedberg, “Pentagon CTO says it’s ‘not democratic’ for Anthropic to limit military use of Claude AI”, Breaking Defense, 19/2/2026.
[19]“The Silicon Valley billionaires spending big to write America’s AI Rules” Financial Times.
[20] Laruca Csernatoni, “Governing Military AI Amid a Geopolitical Minefield” Carnegie Endowment for International Peace, 17/7/2024.
[21] “Key Takeaways of the Military AI, Peace & Security Dialogues 2025” United Nations, 17/9/2025.
[22] Ibid.
علي عواد – مؤسسة الدراسات الفلسطينية
النص يعبر عن رأي الكاتب وليس بالضرورة عن رأي الموقع

التعليقات مغلقة.