برنامج لافندر في قطاع غزّة.. آلة تحديد «الأهداف البشرية» المعدّة للاغتيال

في نيسان/ أبريل 2024، وفي خضم العدوان المستمرّ على قطاع غزة، نشر الصحافي الإسرائيلي يوفال أبراهام مقالاً طويلاً في مجلة +972 يكشف فيه تفاصيل استخدام الجيش الإسرائيلي للذكاء الاصطناعي لتحديد «أهداف بشرية» في قطاع غزّة. وبرنامج الذكاء الاصطناعي – المسمّى «لافندر» – قادر على معالجة كمّية هائلة من البيانات المجمّعة عن معظم سكان غزّة تقريباً لإنتاج «أهداف» بشرية مُحتملة للاغتيال، بعد أن تحدّدهم الآلة كأعضاء محتملين في الأجنحة العسكرية لحماس أو الجهاد الإسلامي الفلسطيني، بما في ذلك المقاتلين من مراتب منخفضة.

كشفت 6 مصادر من داخل المؤسّسة العسكرية تفاصيل عن هذا البرنامج، ومن ضمنها أنّ الجيش الإسرائيلي سمح للضباط بالاعتماد على قوائم القتل التي أعدّها «لافندر» تلقائياً، واستهداف الأشخاص الذين حدّدهم للاغتيال من دون أي تقييم مستقل لقرارات الآلة، على الرغم من معرفتهم بأن واحداً على الأقل من كلّ عشرة أشخاص يُختار عن طريق الخطأ. وفي ذروة عمل البرنامج، حدّد لافندر 37 ألف شخص في غزة للاغتيال المُحتمل، ثمّ عمل الضباط على «ربطهم» ببرامج تتبع الموقع – بما في ذلك برنامج يُسمّى «Where’s Daddy» – ما يسمح للجيش بضرب السكّان في منازلهم، وقتلهم، مع أسرهم بأكملها.

ولكي نفهم كيفية يمكن بناء برنامج مثل «لافندر» واستخدامه لقتل آلاف البشر، من المهم أن نفهم السياق الذي نشأ فيه. فمن نواح كثيرة، يمثل «لافندر» تتويجاً لتاريخ طويل من سيطرة إسرائيل على جميع جوانب حياة (وموت) الفلسطينيين من خلال الفصل والمراقبة والتمييز المنهجي. ولإنشاء برنامج «توليد أهداف» مدعوم بالذكاء الاصطناعي، من الضروري أن يكون لدينا كمّيات ضخمة من البيانات عن السكان المستهدفين. ولا بدّ من وضع نظام القتل الإسرائيلي في السياق التاريخي لعقود خلت من الاحتلال والتمييز العنصري والتجريد من الإنسانية.

منذ «فكّ الارتباط» بقطاع غزة في العام 2005، مارست إسرائيل ما وصفه عالم الأنثروبولوجيا داريل لي بـ «السيطرة القصوى مع أدنى المسؤوليات» على حياة الفلسطينيين. وكجزء من علاقة السيطرة – التي تقوم في جوهرها على القدرة على جمع البيانات عن الشعب الفلسطيني – حافظت إسرائيل منذ فترة طويلة على سيطرتها على سجلات السكان الفلسطينيين وعمليات استخراج بطاقات الهوية في غزة والضفة الغربية والقدس الشرقية المحتلّة. فضلاً عن ذلك، اعتُبِر تقسيم فلسطين وتفتيت أرضها أمراً بالغ الأهمية لتمكين إسرائيل من التحكم في حياة الفلسطينيين، وتؤدّي الحواجز الضخمة التي أنشأتها إسرائيل بدور رئيس في المراقبة الجماعية والسيطرة على الفلسطينيين على امتداد الأراضي المحتلة.

ترتبط سيطرة إسرائيل على حياة الفلسطينيين وموتهم ارتباطاً وثيقاً بسيطرتها الكاملة على حركة الفلسطينيين ومجالهم. فمن دون تصريح سفر خاص من إسرائيل، يصبح سفر الفلسطينيين في الضفة الغربية المحتلة إلى غزة والقدس غير قانونياً وكذلك سفر الفلسطينيين في غزة إلى الضفة الغربية والقدس. وللسفر من قطاع غزّة إلى أي جزء آخر من فلسطين (أو للسفر بين المدن داخل الضفّة الغربية المحتلة)، يتعيّن على الفلسطينيين اجتياز الكثير من الحواجز العسكرية الإسرائيلية. يوجد أكثر من 30 حاجز تربط قطاع غزة والضفة الغربية عبر الأراضي المحتلّة، ووفقاً للأمم المتحدة يوجد أكثر من 645 «حاجزاً معيقاً للحركة» داخل الضفة الغربية نفسها.

هذه المواقع الحدودية ضرورية لجهاز المراقبة الجماعية الإسرائيلي. وعلى مرّ السنين زاد استخدام التقنيات والتكنولوجيات المتطوّرة على هذه الحواجز، لجمع أنواع مختلفة ومتزايدة من البيانات عن الشعب الفلسطيني الذي يعبر تلك الحواجز. وكما يوضح أنتوني لوينستاين في كتابه الأخير «المختبر الفلسطيني» (The Palestine Laboratory)، فقد طوّرت إسرائيل منذ فترة طويلة تقنيات جديدة للحرب والمراقبة واختبرتها على «رعايا غير راغبين»، أي على الشعب الفلسطيني. ويكتب لوينستاين: «فلسطين هي ورشة عمل إسرائيلية، حيث يقف على باب دولة محتلة ملايين الخاضعين كعيّنات لاختبار طرائق السيطرة الأكثر دقة ونجاحاً».

على سبيل المثال، في تقريرها لعام 2023 بعنوان «التمييز العنصري المؤتمت: كيف تعمل تقنية التعرّف إلى الوجوه على تجزئة الفلسطينيين وعزلهم والسيطرة عليهم في الأراضي الفلسطينية المحتلة»، تفصّل منظمة العفو الدولية كيفية استخدام الجيش الإسرائيلي لتقنية التعرّف إلى الوجوه كأداة للمراقبة الجماعية وكحاجز إضافي يعيق حركة الفلسطينيين. ويشرح التقرير بالتفصيل عدداً من برامج التعرّف إلى الوجوه المختلفة التي يستخدمها الجيش الإسرائيلي، بما في ذلك «الذئب الأحمر» (Red Wolf)، وهو نظام يُستخدم عند نقاط التفتيش في الخليل. يوضح التقرير، استناداً إلى شهادات جنود الجيش الإسرائيلي، كيف يعمل نظام «الذئب الأحمر»:

«عندما يعبر إنسان ما الحاجز، ويُحتجز داخله فيما الكاميرات مسلّطة عليه، تُلتقط صورة له، ويقيَّم، وفقاً للشهادات التي جمعتها منظّمة «كسر الصمت» (Breaking the Silence) وعلى أساس المعلومات المتوفرة في السجلات. وعليه، يُسمح له بالمرور أو يُمنع من التوجّه إلى بوابات الخروج من الحاجز بغية اعتقاله أو استجوابه».

يصف التقرير كذلك كيف تُضاف بيانات الفرد البيومترية إلى قاعدة البيانات، مشيراً إلى أنه إذا لم يتعرّف النظام إلى وجه ما، يربط جندي عند الحاجز الوجه بالبطاقة الشخصية حتى «يتعلّم» نظام «الذئب الأحمر» التعرّف إلى الشخص. فضلاً عن ذلك، «إذا لم يكن هناك مدخل بيومتري للفرد المعني، فإنه يُسجَّل بيومترياً في نظام «الذئب الأحمر»، من دون علمه وموافقته». وبمرور الوقت، تتوسّع قاعدة بيانات وجوه الفلسطينيين داخل النظام. ومنذ بدء تطبيق برنامج «الذئب الأحمر»، أفاد فلسطينيون أن الجنود كانوا يتعرّفون إليهم من دون إظهار بطاقاتهم الشخصية.

يوضح تقرير منظمة العفو الدولية أيضاً أن تطبيق «الذئب الأحمر» مرتبط بقواعد بيانات إضافية أكبر مضمّنة في نظامه وتحتوي على مزيد من المعلومات عن الشعب الفلسطيني. وخلافاً لتطبيق «الذئب الأحمر»، الذي يُستخدم عند الحواجز تحديداً، فإن تطبيق برنامج «الذئب الأزرق» (Blue Wolf) هو تطبيق محمول، يسمح للجنود باستخدام نظام التعرّف إلى الوجوه عبر هواتفهم الذكية. وأفاد الجنود بأنهم شُجِّعوا على التقاط أكبر عدد ممكن من الصور للفلسطينيين وتحميلها على التطبيق، «لإنشاء مداخل بيومترية فلسطينية حصرية جديدة» وإنشاء ملفات تعريف للفلسطينيين أو الإضافة إليها. وبمجرد أن تُضاف هذه البيانات البيومترية إلى التطبيق، يمكن التعرّف إلى الأفراد بسرعة.

في حين وثّق استخدام نظامي «الذئب الأزرق» و«الذئب الأحمر» بشكل كبير في الضفّة الغربية، غابت التقارير عن استخدام مماثل في قطاع غزّة حتى وقت قريب جداً. في آذار/مارس من هذا العام، ذكرت صحيفة «نيويورك تايمز» أنّ إسرائيل اعتمدت برنامجاً شاملًا و«تجريبياً» للتعرّف إلى الوجوه في قطاع غزة بدءاً من أواخر العام 2023. جمعت المراسلة شيرا فرينكل معلومات من مصادر مجهولة داخل الجيش الإسرائيلي، من ضمنها ضباط استخبارات وضباط عسكريون وجنود. ووفقاً لهذه المصادر، استخدم الجيش تقنية التعرّف إلى الوجوه في البداية لتحديد هوية الإسرائيليين الذين أسِروا في 7 تشرين الأول/ أكتوبر 2023.

أمّا في الأسابيع والأشهر التالية، تزايد استخدام إسرائيل لبرنامج التعرّف إلى الوجوه من أجل تحديد هوية الأشخاص المرتبطين بحماس أو غيرهم من المجموعات المسلّحة، لا سيما لتحديد الوجوه من خلال الفيديوهات التي تلتقطها المسيّرات. ومع تطور الأحداث، وُضع المزيد والمزيد من الكاميرات في جميع أنحاء قطاع غزّة. وأقيمت نقاط تفتيش ممتلئة بالكاميرات على الطرق داخل قطاع غزة لمسح وجوه الفلسطينيين الفارّين من المناطق التي تتعرّض لقصف إسرائيلي كثيف. كما زُوِّد الجنود الإسرائيليون بكاميرات متصلة بالتكنولوجيا لتكون في متناول أيديهم. وكما كتبت فرينكل، «ثمّة جهد واسع وتجريبي للقيام بمراقبة جماعية هناك، وجمع وجوه الفلسطينيين وفهرستها من دون علمهم أو موافقتهم».

يعتمد البرنامج جزئياً على التكنولوجيا التي طوّرتها شركة «Corsight AI» – شركة تكنولوجيا التعرّف إلى الوجوه ومقرها إسرائيل – في أعقاب 7 تشرين الأول/أكتوبر. وعلى الرغم من أن الشركة تفتخر على موقعها الإلكتروني بأن تقنيتها فعّالة بشكل استثنائي في اكتشاف الوجوه والتعرّف إليها، فقد كشفت مصادر لصحيفة «نيويورك تايمز» أن تقنية Corsight «تعاني» في تحديد الوجوه «إذا كانت اللقطات مُبَرْغَلَة والوجوه مغبّشة»، موضحة كذلك أن «هناك أيضاً نتائج إيجابية خاطئة، أو حالات يُحدّد فيها شخص عن طريق الخطأ على أنه مرتبط بحماس». واكتشف الجنود أن صور غوغل كانت أكثر قدرة على تحديد الأشخاص الذين كانت وجوههم واضحة جزئياً فحسب، لذلك دعموا تقنية Corsight بتقنية غوغل.

التجربة التي عاشها الشاعر مصعب أبو توهة في أثناء عبوره أحد الحواجز العسكرية في قطاع غزة، تسلّط الضوء على بعض المخاوف المتعلقة بحقوق الإنسان التي أثارتها هذه البرامج. فقد سار أبو توهة، من دون علمه أو موافقته، ضمن نطاق الكاميرات التي كانت تلتقط البيانات البيومترية للفلسطينيين المارين؛ وجرى مسح وجهه بواسطة تقنية التعرّف إلى الوجوه، وأُشير إليه باعتباره «مطلوباً». ويصف أبو توهة هذه التجربة المروّعة في مقال له في مجلة «نيويوركر»:

«أظن أنهم لن يخرجوني من الطابور. أحمل ابني ذي الثلاث سنوات وألوّح بجواز سفره الأميركي. عندها يقول الجندي: الشاب الذي يحمل حقيبة ظهر سوداء، ويحمل طفلاً أحمر الشعر. اترك الطفل وتعال عندي. كان يقصدني.»

يحكي أبو توهة عن الارتباك الذي شعر به عندما عرف الجنود اسمه، مع أنه لم يشاركهم اسمه أو يبرز هويته. ثم أُخذ الشاعر بعيداً من عائلته، معصوب العينين، إلى مركز اعتقال إسرائيلي حيث تعرض للضرب والاستجواب لمدة يومين قبل إعادته إلى قطاع غزة من دون أي تفسير لأسباب اعتقاله وتعذيبه.

إن المخاوف المتعلقة بحقوق الإنسان التي يثيرها نظاما «الذئب الأزرق» و«الذئب الأحمر» وبرنامج تكنولوجيا التعرّف إلى الوجوه الذي وضع في غزّة حديثاً هي مخاوف كبيرة وواسعة النطاق. وكما توضح تجربة أبو توهة، فإن الآثار المترتبة عن «إشارة» أحد هذه الأنظمة إلى شخص ما يمكن أن تكون كبيرة، وقد تمس بحرية هذا الشخص، وربما حياته ذاتها. والأمر المهم هو أن تقنيات التعرّف إلى الوجوه لا تنطبق على المواطنين الإسرائيليين (بما في ذلك المستوطنين في الضفة الغربية) أو على معظم الرعايا الأجانب.

يمثّل نظام المراقبة والسيطرة الجماعية عنصراً أساساً في عمل برنامج مثل «لافندر»، إذ لا بد أن يعتمد على كمية هائلة من البيانات. وقبل أن «يتعلّم» البرنامج كيفية تحديد «الأهداف البشرية» المحتملة، لابد أن «يُدرّب» على ذلك أولاً. وفي حين أن العوامل الدقيقة التي تدخل في استخدام مجموعات تدريب «لافندر» لست معروفة بالكامل، فقد كشفت المصادر عن العملية الأساسية التي تمكّنه من «توليد الأهداف».

يُدرَّب برنامج «لافندر» على بيانات الأشخاص ممن «يُعرفون» استنسابياً بارتباطهم بالجناح العسكري لحماس أو الجهاد الإسلامي الفلسطيني، وبذلك «يتعلّم» التعرّف إلى «سمات» المقاتلين لدى سواهم من مواطني قطاع غزة. ويثير «تدريب» البرنامج على تحديد «السمات» التي تتوافق مع العضوية في جماعة مسلّحة مسائل وأسئلة أساسية عن كيفية تحديد شخص ما كـ«منتسب إلى حماس» أو مقاتل ضمنها. ويتلخّص جزء من تعليم النظام كيفية الإشارة إلى الأشخاص المحتمل ارتباطهم بحماس في تحديد بيانات الأشخاص التي ستُستخدم لتدريب «لافندر».

علّق مصدر مجهول تحدّث مع يوفال أبراهام وعمل مع فريق علوم البيانات المسؤول عن تدريب «لافندر» والتابع للجيش الإسرائيلي: «لقد أزعجتني حقيقة أنّهم عند تدريب لافندر استخدموا مصطلح «منتسب إلى حماس» على نحو غير دقيق، وشملوا أشخاصاً كانوا عمّال دفاع مدني في مجموعة بيانات التدريب». على سبيل المثال، استخدم فريق تدريب «لافندر» البيانات التي جُمعت من موظفي وزارة الأمن الداخلي لتعليم النظام. وأوضح المصدر أن اختيار تضمين بيانات العاملين الحكوميين يمكن أن تكون له عواقب جسيمة، ما يؤدّي إلى اختيار النظام للمدنيين بشكل متكرر كـ «أهداف». وعلّق مصدر آخر:

«ما مدى قرب الشخص من حماس حتى تعتبره آلة الذكاء الاصطناعي منتسباً إلى المنظّمة؟ الحدود غير واضحة. هل الشخص الذي لا يتلقى راتباً من حماس ولكنه يساعدهم في أمور شتى يعد ناشطاً في حماس؟ هل الشخص الذي كان منتسباً لحماس في الماضي، ثم خرج منها يعتبر ناشطاً في حماس؟

بالإضافة إلى تحديد البيانات التي تُدخل كأمثلة على «أهداف»، يجب اتخاذ قرارات بشأن هذه البيانات وأهمية هذه «السمات». كتب الجنرال الإسرائيلي يوسي سارييل، في كتابه «فريق الإنسان-الآلة» (The Human-Machine Team) الذي أصدره باسم مستعار، عن البيانات المدخلة في البرنامج: «كلما زادت المعلومات، وزاد التنوّع، كان ذلك أفضل»، بما في ذلك «المعلومات المرئية، ومعلومات الهاتف المحمول، واتصالات وسائل التواصل الاجتماعي، ومعلومات ساحة المعركة، وجهات الاتصال الهاتفية، والصور».

لم تُعلن قائمة مدخلات «السمات» المُحدّدة المتعلقة بوجود ارتباط واضح لشخص ما مع جماعة مسلّحة، لكن سارييل يضع في كتابه قائمة للمحدّدات التي تسمح بتصنيف الأشخاص مثل وجوده في مجموعة مراسلة مع «مسلح معروف»، وتغيير الهواتف المحمولة كل بضعة أشهر، وتغيير العناوين المتكرّر. ويوضح سارييل أنه في حين يجب على الضباط البشر أولاً تحديد «السمات» المرتبطة بالعضوية في جماعة مسلحة، فإن نظام الذكاء الاصطناعي سوف يميز في النهاية السمات بصورة مستقلة.

في حين يصعب تحديد كيفية تدريب نماذج الذكاء الاصطناعي على التوقّع من دون الوصول إلى مزيد من التفاصيل عما يُفترض أنها «السمات» التجريمية المعتمدة وكيفية ترجيحها، فإن التفاصيل القليلة التي قدّمها سارييل عن «عناصر» الاتهام تثير مخاوف عميقة فيما يتعلّق بانتهاكات حقوق الإنسان التي تطرحها هذه البرامج.

في حين يفرز برنامج «لافندر» هذه المجموعات المتغيرة باستمرار من البيانات ويقيّمها، فإنه يضع «تقييماً» من 1 إلى 100 لكل شخص يخضع للتقييم، ويصنف إلى أي مدى يظهر فرد ما ارتباطه الفعال بالجناح العسكري لحماس أو الجهاد الإسلامي. وأبلغت مصادر فريق +972 أن نظام لافندر حلّل كل شخص في قطاع غزة تقريباً ومنحه تصنيفاً، الأمر الذي من شأنه أن يحدّد بعد ذلك ما إذا كان «هدفاً بشرياً» محتملًا.

يعتمد عدد الأهداف المحتملة التي ينشئها «لافندر» لاستخدام الجيش الإسرائيلي على «السقف المحدّد» لمهاجمة أحد ما. وهذا يعني أنّ خفض سقف التصنيف يُفضي إلى إدراج مزيد من الأشخاص في قائمة القتل. والحال، أنّ سرعة توليد «أهداف جديدة» غير مسبوقة. في مقالته «مصنع للاغتيال الجماعي» (A Mass Assassination Factory) في +972، أفاد يوفال أبراهام أنّ رئيس أركان الجيش الإسرائيلي السابق أفيف كوخافي أوضح أنه في الماضي – قبل استخدام الذكاء الاصطناعي – كان الجيش الإسرائيلي يضع حوالي 50 «هدفاً» سنوياً. وفي مقابلة مع صحيفة «جيروزالم بوست»، أوضح رئيس «بنك الأهداف» أنّ الجيش الإسرائيلي تمكّن، بمساعدة الذكاء الاصطناعي، وللمرة الأولى، من «تجاوز النقطة التي يمكن عندها تجميع أهداف جديدة بشكل يفوق في سرعته معدّل الهجمات». من الواضح أن الجيش الإسرائيلي، قبل تطوير هذه التكنولوجيا، كان «يستنفد» خلال بضعة أيام ما تدعوه «جيروزالم بوست» بـ «الأهداف النوعية».

بعد أن يحدّد «لافندر» هدفاً محتملاً، يقرّر الضباط ما إذا كانوا سيغتالون الشخص الذي منحه برنامج الذكاء الاصطناعي تقييماً عالياً. وأفادت مصادر لإبراهام أن «لافندر» استُخدم – في البداية – كأداة مساعدة، ولكن بعد حوالي أسبوعين من 7 تشرين الأول/أكتوبر، سمح الجيش للضباط بالتبنّي التلقائي لقوائم القتل التي وضعها «لافندر». وبعد قرار تبنّي «قوائم القتل» بمجملها، لا يكون هناك في الأساس أي إثبات بشري لصحة القرار. بل طُلِب من الضباط أن يتعاملوا مع قرار «لافندر» باعتباره أمراً. وبمعنى آخر، رخّص الجيش الإسرائيلي التبنّي الكلّي لقوائم القتل التي وضعها «لافندر» من دون أي محاولة للتحقق منها يدوياً أو بشرياً.

«التحقّق» الوحيد الذي تحدّثت عنه المصادر قبل قصف شخص معيّن هو التأكد من أنّه هو ذكر، نظراً إلى عدم وجود نساء منتميات إلى الجناح العسكري لحماس. ولأن التثبّت الوحيد الذي أجراه الضباط تمثّل بالتحقّق من اعتقادهم ما إذا «صوت الشخص المستهدف ذكورياً أو أنثوياً (من خلال الاستماع الاستنسابي إلى مكالمات هؤلاء الأشخاص)، لم يكن هناك من يحدّد ما إذا كان الشخص منتمياً بالفعل إلى الجناح العسكري لحماس أو منتسباً له. فضلاً عن ذلك، يبدو أن الكثير من عمليّات التعقّب جرت باستخدام هواتف الأشخاص المستهدفين، وهذا يعني إذا أعطى أحد «الأهداف» المحدّدة من «لافندر» هاتفه لشخص آخر، يمكن عندها استهداف الأخير وقتله من دون التحقّق ما إذا كان هو الهدف عينه الذي حدّده «لافندر».

يشير التبنّي شبه المطلق لقائمة «الأهداف البشرية» التي وضعها «لافندر» من قبل صنّاع القرار النهائي البشر إلى الكثير من المخاوف التي أعرب عنها دعاة حقوق الإنسان والأكاديميين في شأن استخدام الذكاء الاصطناعي ونقص الإشراف البشري الجاد. ويركّز كثير من أنصار استخدام النماذج الخوارزمية التوقعية على حقيقة أن صانع القرار الأخير البشري يعمل كـ«ضمانة»، وأنّ هذه الأنظمة تهدف إلى المساعدة في الحكم البشري، لا الحلول محلّها. ومع ذلك، وكما يوضح التبني غير المشكّك به «لقائمة لافندر للقتل»، فإن وجود إنسان له «الكلمة الفصل» ليس بالضابط الكافي للمخاوف الأخلاقية التي يثيرها استخدام الذكاء الاصطناعي في هذه السياقات.

على الرغم من اقتراح البعض إمكانية استخدام الذكاء الاصطناعي لحماية حياة المدنيين في الصراعات المسلحة، يدحض القصف الإسرائيلي لقطاع غزّة على مدى الأشهر التسعة الماضية هذا الزعم. وبحلول 8 تموز/ يوليو 2024، قدّرت وزارة الصحة في قطاع غزة أن أكثر من 38 ألف فلسطيني قُتلوا، وأصيب أكثر من 87 ألف شخص بسبب الهجمات الإسرائيلية، وكثير منهم من النساء والأطفال. ولا يزال آلاف آخرون في عداد المفقودين ومحتبسين تحت الأنقاض.

هذا القتل غير المنطقي لعدد كبير من البشر على مدى تسعة أشهر، يرجع في جزء منه إلى الأسلوب الذي قرّر به الجيش الإسرائيلي استخدام برامج «توليد الأهداف» مثل لافندر. وبحسب يوفال أبراهام، يُعزى هذا جزئياً إلى أنّ الجيش الإسرائيلي قرّر في بداية هجومه على غزة، «أنه في مقابل كل منتسب لحماس يحدّده لافندر، يجوز قتل ما يصل إلى 15 أو 20 مدنياً». ويتساءل المرء عن عدد المدنيين الذين يمكن اعتبارهم أضراراً جانبية مشروعة في مقابل قيادي رفيع المستوى في حماس.

ما يؤكّد استخدام الأهداف الفردية ذريعةً لقتل كثير من الناس هو الطريقة التي يتفاعل بها «لافندر» مع نظام تتبع آلي أطلق عليه الجيش الإسرائيلي اسم «Where’s Daddy». وغيره من الأنظمة المشابهة لتتبّع الأشخاص الذين حدّدهم «لافندر»، و«ربط» هؤلاء الأفراد بمنازل عائلاتهم، وتنبيه «ضابط الاستهداف» تلقائياً عندما يدخل الشخص إلى منزله، ليُقصفه. والواقع، كان الجيش ينتظر الأشخاص الذين حدّدهم «لافندر» ليدخلوا منازلهم قبل مهاجمتهم، الأمر الذي زاد جذرياً من احتمالات قتل عائلات بأكملها. إن اختيار تسمية «Where’s Daddy» لبرنامج المواقع، يشير إلى الحقيقة المزعجة المتمثلة في أن الجيش الإسرائيلي كان ينوي قتل الأطفال بمجرد عودة والدهم إلى المنزل، وأن هذا أصبح ممكناً ومقبولًا بفضل هذه البرامج الآلية.

وصف أحد المصادر كيف كان من السهل إضافة الأشخاص الذين حدّدهم «لافندر» إلى برنامج تتبّع المواقع وكيف تمكّن مسؤولون من رتب منخفضة في الجيش الإسرائيلي من القيام بذلك. وبمجرّد إضافة هذه الأسماء ووضعها تحت مراقبة مستمرة، يمكن قصف منازلهم حال دخول الهاتف المحمول المرتبط بـ «الهدف» إلى مسكن الأسرة. وأوضح المصدر لإبراهام: «في أحد الأيام، وبمحض إرادتي تماماً، أضفت ما يقرب من 1,200 هدف جديد إلى نظام [التتبّع]، لأن عدد الهجمات [التي كنا ننفّذها] انخفض. كان هذا منطقياً بالنسبة إليّ. أعيد النظر في ذلك الآن، ويبدو الأمر كأنه قرار جاد اتخذته».


تؤكد هذه الروايات العواقب الوخيمة المترتبة عن قرارات سريعة وغير مدروسة مماثلة: إذ تسمح التكنولوجيا للمسؤولين – البعيدين جسدياً وعاطفياً من المشهد – بفرض القتل الجماعي والدمار الشامل في غضون ثوان قليلة. وكانت نتيجة هذه الحملة الرعناء المتهورة موت عشرات الآلاف من المدنيين ومحو عائلات بأكملها من السجلات العائلية لأهل غزّة.

في كتابها «عالم بلا مدنيين» (A World Without Civilians)، كتبت إليز سميردجيان: «إن حرب الذكاء الاصطناعي الأولى هي استمرار لاستخدام غزة كمختبر لرأسمالية الجثث، إذ تحقّق الأسلحة التي اختُبرت ميدانياً على الفلسطينيين دولارات أعلى في السوق، ما يؤدّي بدوره إلى إثراء صناعة الأسلحة والسياسيين المرتبطين بها». وفي كتاب «المختبر الفلسطيني»، يحذّر لوينستاين من أن إسرائيل لطالما تمكّنت من تفادي المساءلة وردود الفعل السياسية ضد انتهاكاتها لحقوق الإنسان و«الاحتلال الدائم» بسبب بيع الأمم الأخرى في جميع أنحاء العالم أحدث التقنيات العسكرية. وهذا يثير القلق الحقيقي من انتشار تقنيات الذكاء الاصطناعي القاتلة مثل لافندر وWhere’s Daddy إلى دول أخرى في العالم.

لقد كشف الفقد الهائل للأرواح وتجاهل حقوق الإنسان على مدى الأشهر التسعة الماضية من حملة الإبادة الجماعية التي تشنّها إسرائيل في قطاع غزة عن حقيقة مفادها أن التعامل مع إسرائيل يعني المساعدة في ارتكاب جرائم حرب، وأن هذا النوع من استخدام الذكاء الاصطناعي في الحرب قد يؤدي إلى نتائج كارثية. إن الاحتجاجات الطالبية الجماعية في جميع أنحاء العالم، وصعود حركة مقاطعة إسرائيل وسحب الاستثمارات منها وفرض العقوبات عليها (BDS)، والتحالف المتنامي للعاملين في مجال التكنولوجيا الذين يعارضون مواقف أصحاب عملهم ضمن منظمات مثل لا تكنولوجيا للتمييز العنصري (No Tech for Apartheid)، جميعها تبثُّ الأمل في أن «مختبر إسرائيل الفلسطيني» بدأ يتكشّف بوصفه الآلة غير الأخلاقية لصنع الموت.

موقع الصفر

اساسي