كشف تحقيقان حديثان عن حجم استخدام الذكاء الاصطناعي في حرب الإبادة التي تُشن على غزة، وكذلك في مراقبة السكان في الأراضي الفلسطينية المحتلة. فالشركات الناشئة، التي غالباً ما تُقدَّم كرمز لحداثة إسرائيل، هي في الواقع جزء لا يتجزأ من المجمّع العسكري لهذا البلد. ويُظهر تحقيق ثالث كيف أن العملاق الأمريكي “مايكروسوفت” متورط في استراتيجية الموت ضد الفلسطينيين.
“بمجرد الانتقال إلى التشغيل الآلي، تخرج عملية تحديد الأهداف عن أي سيطرة”: نطق بهذه العبارة -التي تكشف عن تسارع مميت في أساليب الجيش الإسرائيلي – أحد الضباط الذين شاركوا في عملية “سيوف الحديد” في غزة، التي أعقبت عملية السابع من أكتوبر. وهي توضح الدور المتنامي للذكاء الاصطناعي في استراتيجية الإبادة لدى تل أبيب.
استخدم الجيش الإسرائيلي بالفعل الذكاء الاصطناعي خلال عملياته العسكرية السابقة لتطوير عمليات تحديد الأهداف. لكن للمرة الأولى بعد السابع من أكتوبر، فوّض الجيش للذكاء الاصطناعي مسؤولية اغتيال هذه الأهداف والسماح بتوسيع دائرة “الضحايا الجانبية”، كما كشف تحقيق أجراه الصحفي يوفال أبراهام من موقع 972+، استناداً جزئياً إلى وثائق حصل عليها موقع Drop Site News ومصادر عسكرية فضّلت عدم الكشف عن هويتها1.
37 ألف هدف محتمل
وفقاً ليوفال أبراهام، تكثّف استخدام الذكاء الاصطناعي الذي كان سابقاً مجرد أداة مساعدة في فهرسة الوثائق واتخاذ القرارات، بينما تقلّص دور التدخل البشري. في عام 2021، أشار القائد الحالي لوحدة النخبة الاستخباراتية الإسرائيلية 8200، في دليل عسكري بعنوان معبّر هو “فريق الإنسان والآلة، أو كيف أن خلق تآزر بين الإنسان والذكاء الاصطناعي سيُحدث ثورة في العالم”، إلى ضرورة وجود برنامج لجمع البيانات والتشغيل الآلي القرارات باستخدام الذكاء الاصطناعي. أصبح مثل هذا المشروع قيد التشغيل في عام 2024 تحت اسم “لافندر” (إشارة لزهرة الخزامى بالعربية).
بمجرد أن يُحدّد برنامج “لافندر” شخصاً على أنه ناشط في حركة حماس، يصبح هذا التحديد بمثابة قرار إعدام، دون التحقق من البيانات التي قادت الآلة إلى هذا الاستنتاج. ومن خلال تجاهل رتبهم أو درجاتهم العسكرية، حدّد الذكاء الاصطناعي 37 ألف فلسطيني وفقاً لمنطق وجود “سمات مشتركة” بين أعضاء حماس والجهاد الإسلامي. ويتحمل الجيش مسؤولية خطر أن يؤدي هذا التشابه إلى الخطأ وأن يحدد البرنامج رجال شرطة أو أفراد الدفاع المدني أو أقارب المناضلين أو أشخاصاً متشابهين في الأسماء كأهداف محتملة. وهذا بالضبط ما حدث.
في السابق، كان اغتيال شخص واحد مشروطاً بعملية تحديد هوية تضمن أن الشخص المستهدف هو فعلاً ضابط رفيع المستوى في الجناح العسكري لحماس، وهم الوحيدون الذين يمكن استهدافهم بالقصف في منازلهم. عندما تم تفويض هذه العملية للذكاء الاصطناعي، تقلصت مرحلة التحقق من هوية المشتبه به إلى بضع ثوان قبل إطلاق ضربة التصفية.
ولعب نظام “لافندر” دوراً حاسماً في الاستخدام المكثف للقصف، خاصة خلال المراحل الأولى من الحرب حيث لم يُطلب من الضباط، المحميين من قبل قيادتهم، التحقق من معايير اختيار الآلة (رغم أنها تخطئ في 10% من الحالات)، مكتفين فقط بالتأكد من أن الهدف رجل، حيث أن حماس والجهاد الإسلامي لا يستخدمان مقاتلات نساء.
أدى هذا النهج إلى قتل نحو 15 ألف فلسطيني من قبل الجيش الإسرائيلي خلال الأسابيع الستة الأولى من تدخله في غزة. لم تتوقف هذه المذبحة لأسباب أخلاقية، بل خوفاً من نفاد القنابل، وهو خوف لا أساس له حيث استمرت المساعدات الأمريكية دون انقطاع.
إبادة 2% من سكان غزة خلال عشرة أشهر
اعترف “ب.”، أحد المصادر المجهولة ليوفال أبراهام، بأنه “في وقت الحرب، لا يوجد وقت لتحديد كل هدف. لذلك نحن على استعداد لقبول هامش الخطأ في استخدام الذكاء الاصطناعي، والمخاطرة بأضرار جانبية ومقتل مدنيين، والهجوم عن طريق الخطأ، والتعايش مع ذلك.” ويوضح أن “سبب هذا التشغيل الآلي كان الرغبة المستمرة في خلق المزيد من الأهداف للاغتيال. في اليوم الذي لم تكن فيه أهداف (كان تقييم خصائصها كافياً للسماح بضربة)، كنا نهاجم بدرجة أدنى. كانوا يضغطون علينا باستمرار صارخين فينا: ’أحضروا لنا المزيد من الأهداف’. في النهاية اضطررنا (لقتل) أهدافنا بسرعة كبيرة”.
أدى هذا الأمر إلى إبادة 2% من سكان غزة في عشرة أشهر، حسب الأرقام الرسمية. وبما أن الطموح القاتل لا حدود له، فقد تضاعف التعداد الآلي للرجال المستهدفين بواسطة نظام ذكاء اصطناعي آخر “The Gospel”، يسمح بتحديد مواقعهم عندما يدخلون بيوتهم. سمح هذا البرنامج الرابط للمعلومات، الذي سُمي بسخرية “?Where’s Daddy” (“أين أبي؟”) بضرب الضحايا فجراً في منازلهم، خلال قصف لم يستثن عائلاتهم.
ووفقاً لأرقام الأمم المتحدة، في الشهر الأول من الحرب، كان أكثر من نصف الضحايا -6120 شخصاً- ينتمون إلى 1340 عائلة قُتلت داخل منزلها. في سياق الإبادة هذا، لا نندهش من أن معظم الضحايا من النساء والأطفال.
خاصة وأن الجيش الإسرائيلي فضّل استخدام القنابل غير الموجهة ذات الدقة غير المؤكدة، والتي تُسمى “القنابل الصامتة” لصعوبة اكتشافها. ووصف مصدر مجهول آخر ليوفال أبراهام بروتوكول استخدامها:
إن السؤال الوحيد: هل من الممكن مهاجمة المبنى مع الحد من الأضرار الجانبية؟ في الواقع، كنا ننفذ الهجمات عموما باستخدام قنابل صامتة، ما يعني القضاء على المنزل كله وسكانه حرفيا. ولكن حتى إذا تم تجنب هجوم ما، فإننا لا نهتم وننتقل فوراً إلى الهدف التالي. لا تنفد الأهداف .أبدا بفضل هذا النظام. لا يزال هناك 36 ألف هدف في الانتظار.
تم التعامل مع مسألة الأضرار الجانبية بشكل مختلف وفقاً لمراحل التدخل الإسرائيلي. خلال الأسبوع الذي أعقب السابع من أكتوبر، تجاهلت إسرائيل الأضرار الجانبية كما أكد “ب.” ليوفال أبراهام:
عملياً، لم نكن نحصي الأشخاص حقاً (في كل منزل تم قصفه) لأننا لم نكن نعرف حقاً ما إذا كانوا في البيت أم لا. بعد أسبوع، بدأت القيود تحدد كمّ الأضرار الجانبية، انخفض العدد من خمسة عشر إلى خمسة، مما جعل هجماتنا صعبة للغاية، لأنه إذا كانت العائلة بأكملها في المنزل، لم نكن نستطيع قصفها. ثم رفعوا هذا الحد مرة أخرى.
وهو ما سمح للجيش، في تشرين الثاني/نوفمبر 2023، عندما كان الأمر يتعلق باغتيال أيمن نوفل، قائد لواء غزة المركزي في حماس، بقتل 300 مدني وتدمير عدة مبان في مخيم البريج للاجئين بواسطة ضربات جوية.
معدل قتل غير مسبوق في القرن الحادي والعشرين
في 5 نيسان/أبريل 2024، وعندما سألتها إذاعة كندا عن مصداقية تقرير وسائل الإعلام الإسرائيلية، قدرت بريانا روزن، التي تعمل منذ 15 عاماً على عسكرة التقنيات الجديدة بما في ذلك الذكاء الاصطناعي، أن الرد الإسرائيلي يؤكد المعلومات الأساسية التي قدمها التحقيق الصحفي. كما أوضحت في بريد إلكتروني لراديو كندا: “هناك الكثير من الأشياء التي لا نعرفها عن استخدام إسرائيل للذكاء الاصطناعي في غزة. لم تكن إسرائيل شفافة بشأن هذه الأنظمة المصنفة”. وتؤكد روزن، الباحثة في جامعة أكسفورد وفي Just Security، وهو منتدى عبر الإنترنت يحلل التشريعات والسياسات المتعلقة بالأمن القومي للولايات المتحدة:
“هذا ما نعرفه بالتأكيد: تستخدم إسرائيل أنظمة تعتمد على الذكاء الاصطناعي لتسريع وتيرة وحجم الحرب.” وهو استنتاج أكدته زميلتها أميلي فيري، الباحثة في مختبر أبحاث الدفاع في المعهد الفرنسي للعلاقات الدولية في مقابلة بتاريخ 18 تموز/يوليو 2024 مع موقع Mediapart الفرنسي المتخصص في الصحافة الاستقصائية: “ما نراه في غزة هو معدل قتل غير معروف تقريبا في القرن الحادي والعشرين.”
معرفة ما يفعله كل فلسطيني
في تحقيق آخر شاركت فيه صحيفة الغارديان البريطانية، كشفت مجلة 972+ أن وحدة النخبة 8200، التي تقع ضمن مديرية الاستخبارات الإسرائيلية، قد كُلفت بمساعدة الذكاء الاصطناعي بتطوير نظام مراقبة اجتماعية يعتمد على التعرف على سمات الوجه، وهو روبوت دردشة من نوع Chat GPT يدمج البيانات التي تم جمعها عن الحياة اليومية للفلسطينيين الذين يعيشون تحت الاحتلال.
يوضح مصدر استخباراتي ليوفال أبراهام:
الذكاء الاصطناعي يضخم السلطة. فهو يستخدم بيانات عدد أكبر من الأشخاص لتنفيذ العمليات، مما يسمح بالسيطرة على السكان. ولا يتعلق الأمر بمنع هجمات بالرصاص فحسب، بل يمكنني تتبع نشطاء حقوق الإنسان، وحتى مراقبة البناءات الفلسطينية في المنطقة (ج) (في الضفة الغربية)2. ولدي المزيد من الأدوات لمعرفة ما يفعله كل شخص في الضفة الغربية.
أدركت مديرية الاستخبارات العسكرية الإسرائيلية أن نماذج اللغة الحالية لا تعرف سوى اللغة العربية الفصحى وليس “اللهجات التي تكرهنا” وفقاً لمصطلحات أحد ضباط الاستخبارات. فقام جنود الاحتياط العاملون في شركات التكنولوجيا الخاصة بتصحيح هذه الفجوة اللغوية.
يؤكد أوري غوشن، أحد مؤسسي إحدى هذه الشركات، أنه بدلاً من استخدام “أدوات بحث بدائية”، سيتمكن العملاء من “طرح الأسئلة والحصول على إجابات” من روبوت الدردشة – مثل تحديد ما إذا كان شخصان قد التقيا من قبل أو ما إذا كان شخص ما قد ارتكب عملا غير قانوني أم لا.
ومع ذلك، اعترف الرئيس التنفيذي لشركة Israeli company AI21 Labs أن “هذه نماذج احتمالية، تطرح عليها سؤالا، وتولد شيئاً يبدو وكأنه سحر. لكن في كثير من الأحيان، لا يكون للإجابة أي معنى. نسمي هذا ’هلوسة’”.
عززت نماذج اللغة المتطورة هذه، بالإضافة إلى زيادة المراقبة في الأراضي المحتلة، سيطرة إسرائيل على السكان وزادت عدد الاعتقالات مما أدى، على سبيل المثال، إلى سجن إسرائيل لعدد من الفلسطينيين مساو لعدد الذين أطلقت سراحهم في إطار الاتفاق مع حماس.
“مايكروسوفت”، شركة ملتزمة مع تل أبيب
منذ السابع من أكتوبر، كثف الجيش الإسرائيلي تعاونه مع خدمات الحوسبة السحابية Cloud والذكاء الاصطناعي من “مايكروسوفت” وشريكتها OpenAI، التي انضم موظفوها إلى وحدات مختلفة لدعم نشر تقنياتها. يعترف موقع الشركة بأن “خبراء ’مايكروسوفت’ يصبحون جزءا لا يتجزأ من فريق (الحريف).”
وتكشف وثائق تجارية من وزارة الدفاع الإسرائيلية وملفات الفرع الإسرائيلي لشركة “مايكروسوفت” اطلع عليها يوفال أبراهام أن عشرات وحدات الجيش اشترت خدمات من منصة الحوسبة السحابية Microsoft Azure. كما زودتها “مايكروسوفت” بولوج موسع إلى نموذج لغة GPT-4 من OpenAI، وهو محرك ChatGPT3.
قبل عام 2024، تضمنت شروط OpenAI شريكة “مايكروسوفت”، بندا يحظر استخدام خدماتها للأنشطة “العسكرية والحربية”. لكن في كانون الثاني/ يناير 2024، بينما زاد الجيش الإسرائيلي اعتماده على GPT-4 أثناء قصفه لقطاع غزة، قامت الشركة بهدوء بإزالة هذا البند من موقعها الإلكتروني ووسعت شراكاتها مع الجيوش ووكالات الاستخبارات الوطنية -وهو ما استفادت منه إسرائيل بالطبع.
تستخدم العديد من وحدات جيشها الخدمات التي توفرها Azure، منها وحدة “أوفيك” في سلاح الجو، المسؤولة عن إدارة قواعد بيانات كبيرة للأهداف المحتملة للقصف الجوي؛ ووحدة “ماتسبين”، المسؤولة عن تطوير أنظمة الدعم العملياتي والقتالي؛ ووحدة “سابير” المسؤولة عن صيانة البنية التحتية لتكنولوجيا المعلومات والاتصالات لمديرية الاستخبارات العسكرية؛ والفرع التكنولوجي لقسم العمليات الخاصة في مديرية الاستخبارات العسكرية الذي يصنع معدات المراقبة للاستخبارات الإسرائيلية؛ وسرب الاستخبارات النخبوي للحرب الرقمية الوحدة 8200 ، وحتى هيئة المدعي العام العسكري المكلفة بمقاضاة الفلسطينيين، ونظرياً، الجنود الذين ينتهكون “المدونة الأخلاقية” لقوات الجيش الإسرائيلي.
تشير هذه الوثائق نفسها إلى أن نظام Rolling Stone، الذي يستخدمه الجيش لإدارة سجل السكان وتحركات الفلسطينيين في الضفة الغربية وغزة، يستفيد من صيانة Microsoft Azure. وتحتفظ الشركة بعلاقات وثيقة مع وزارة الدفاع الإسرائيلية من خلال إدارة المشاريع المتعلقة بـ“أنظمتها الخاصة والمعقدة”، بما في ذلك “أعباء العمل الحساسة” التي لا تتعامل معها أي شركة Cloud أخرى.
جان ميشيل موريل – أوريان 21