كيف تستخدم “إسرائيل” الذكاء الاصطناعي في انتهاكات حقوق الإنسان

كشفت التحقيقات الإعلامية الأخيرة، إن أنظمة الاستهداف “الإسرائيلية” للذكاء الاصطناعي مثل “لافندر” و”الانجيل” تستخدم لتنفيذ المذابح الجماعية والدمار في جميع أنحاء فلسطين. وهذا هو تجسيد للعديد من انتهاك حقوق الإنسان التي تعتمد على الذكاء الاصطناعي، مثل أنظمة المراقبة البيومترية وأدوات الشرطة التنبؤية، وغيرها من التقنيات التي تستخدمها “إسرائيل” ضدّ الفلسطينيين. إن الحرب المعززة بالذكاء الاصطناعي التي تشنها “إسرائيل” الآن في فلسطين توضح الحاجة الملحّة للحكومات لحظر استخدام التقنيات التي لا تتوافق مع حقوق الإنسان في أوقات السلم وكذلك الحرب. إن استخدام “إسرائيل” للذكاء الاصطناعي في الحرب ليس جديدًا. فمنذ سنوات استخدمت “إسرائيل” قطاع غزّة كحقل اختبار للتكنولوجيات والأسلحة الجديدة، والتي تبيعها لاحقًا لدول أخرى. حتّى أن قوات الدفاع “الإسرائيلية” وصفت قصفها العسكري الذي استمر 11 يومًا لغزّة في مايو 2021م بأنه “أول حرب ذكاء اصطناعي”. وفي هجومها الحالي على غزّة، استخدمت “إسرائيل” ثلاث فئات من أدوات الذكاء الاصطناعي، الفئة الأولى هي فئة أنظمة الأسلحة المستقلة القاتلة (LAWS) والأسلحة شبه المستقلة (semi – LAWS)، حيث استخدم الجيش “الإسرائيلي” الطائرات رباعية المروحية التي يتم التحكم فيها عن بعد والمجهزة بمدافع رشاشة وصواريخ لمراقبة وإرهاب وقتل المدنيين الذين يحتمون في الخيام والمدارس والمستشفيات والمناطق السكنية. وقد أفاد سكان مخيم النصيرات للاجئين في غزّة أن بعض الطائرات من دون طيار تبث أصوات بكاء الأطفال والنساء، من أجل إغراء الفلسطينيين واستهدافهم. وقبل هذا بعدة سنوات نشرت “إسرائيل” “طائرات من دون طيار انتحارية” و”روبوت قناصة” آليًا وأبراجًا تعمل بالذكاء الاصطناعي لإنشاء “مناطق قتل آلية” على طول حدود غزّة. وفي عام 2021م، نشرت أيضًا روبوتًا عسكريًا شبه مستقل يُدعى “جاكوار”، والذي تم الترويج له باعتباره أحد أول الروبوتات العسكرية في العالم الذي يمكنه أن يحل محل الجنود على الحدود. هذا الروبوت طورته شركة الصناعات الفضائية “الإسرائيلية” (IAI)، وتم تجهيزه بمدفع رشاش MAG مقاس 7.62 ملم يمكنه العمل أثناء الثبات أو الحركة، ويستخدم الروبوت كاميرات عالية الدقة، وأجهزة إرسال، ومصابيح أمامية قوية، ونظام ( Public Address) ,يتم التحكم فيه عن بُعد – هو نظام تضخيم صوتي يسمح للمستخدمين بالتحكم في مخرجات الصوت من مسافة بعيدة، عادةً باستخدام تقنية لاسلكية – والجانب الأكثر تميّزًا في جاكوار هو أنه قادر على القيادة بمفرده إلى وجهة محدّدة مسبقًا أثناء اكتشاف العقبات وتجاوزها باستخدام أجهزة استشعار ونظام قيادة متقدم، كما أنه لديه القدرة على التدمير الذاتي إذا وقع في أيدي العدو!

الفئة الثانية من أدوات الذكاء الاصطناعي التي استخدمتها “إسرائيل” هي أنظمة التعرف على الوجه والمراقبة البيومترية، حيث كان غزو “إسرائيل” البري لغزّة فرصة لتوسيع نطاق المراقبة البيومترية للفلسطينيين، والتي تم نشرها من قبل في الضفّة الغربية والقدس الشرقية. وذكرت صحيفة نيويورك تايمز كيف يستخدم الجيش “الإسرائيلي” نظامًا موسعًا للتعرف على الوجه في غزّة “لإجراء مراقبة جماعية هناك، وجمع وفهرسة وجوه الفلسطينيين دون علمهم أو موافقتهم”. ووفقًا للتقرير، يستخدم هذا النظام تكنولوجيا من شركة “كورسايت” “الإسرائيلية” و”جوجل فوتوز” لاختيار الوجوه من بين الحشود وحتّى من لقطات الطائرات من دون طيار. أما الفئة الثالثة هي أنظمة توليد الأهداف الآلية وأبرزها نظام Gospel الذي يولد أهدافًا تتعلق بالبنية التحتية، ونظام Lavender الذي يولد أهدافًا بشرية فردية، ونظام Where is Daddy؟ وهو نظام مصمم لتتبع واستهداف المشتبه بهم عندما يكونون في منازلهم مع عائلاتهم. لقد أدانت الأمم المتحدة الأسلحة الآلية وشبه الآلية، باعتبارها “غير مقبولة سياسيًّا وأخلاقيا”، وهناك دعوات متزايدة لحظرها. فبعيدًا عن افتقار مثل هذه الأنظمة إلى الدقة أو التحقق البشري، فإن هناك قلقا وجوديًّا أكثر يتمثل في كيفية تعارض استخدامها بشكل أساسي مع حقوق الإنسان، والكرامة الإنسانية المتأصلة التي تنبع منها هذه الحقوق. ويتجلى هذا في حقيقة مفادها أن أنظمة الاستهداف التي تعمل بالذكاء الاصطناعي في “إسرائيل” تعمل على النحو المقصود تمامًا في التدمير والقتل؛ وكما قال جيش الدفاع الإسرائيلي، “نحن نركز الآن على ما يسبب أقصى قدر من الضرر”. وفعلا يستخدم الجيش “الإسرائيلي” صواريخ غير موجهة، أو “قنابل غبية”، لاستهداف مسلحين صغار مزعومين تم تمييزهم باللافندر في منازلهم. وقد أدى هذا، إلى القتل الجماعي للفلسطينيين ومستوى من الدمار لم نشهده منذ الحرب العالمية الثانية، وفقًا للأمم المتحدة. إن استخدام أنظمة الاستهداف بالذكاء الاصطناعي هذه يخفف فعليًّا من المسؤولية البشرية عن قرارات الحياة والموت، في محاولة لإخفاء أنظمة متطورة تستخدم في الدمار الشامل والقتل دون أدى مسؤولية جنائية. فمثلا لا توجد طرق محاسبة أخلاقية أو إنسانية لمن يستخدم أنظمة مثل Lavender أو Where is Daddy؟ لأنها تقوم على نزع الصفة الإنسانية عن الناس.

إن استخدام أنظمة توليد الأهداف بالذكاء الاصطناعي في الحرب، إلى جانب المراقبة الجماعية البيومترية، يستحق المزيد من الاهتمام للحد من مخاطر هذه التقنية ليس فقط على حقوق الإنسان، بل على الإبادة الجماعية لبعض الشعوب. إن كلّ ما ذكرناه أعلاه يؤكد على أن البنية التحتية للمراقبة التي تم تطويرها ونشرها أثناء وقت السلم تم إعادة استخدامها بسهولة أثناء الحرب والتي تتسبب في أسوأ انتهاكات حقوق الإنسان. وهذا يثير تساؤلات حول دور شركات التكنولوجيا الكبرى في توفير التقنيات المدنية التي يمكن استخدامها لأغراض عسكرية وأبرزها خدمات الحوسبة السحابية والتعلم الآلي التي تقدمها جوجل، وأمازون “ويب سيرفيس”، وميتا لـ”إسرائيل” من خلال Project Nimbus، فمثلا بات معروفًا أن البيانات الوصفية من WhatsApp، المملوك لشركة “ميتا” تُستخدم لتوفير البيانات لنظام الاستهداف “لافندر”.

إن شركات مثل جوجل، وأمازون ويب سيرفيس، وميتا ومن خلال الاستمرار في تقديم هذه الخدمات للحكومة “الإسرائيلية”، تخاطر بالتواطؤ في مساعدة أو تحريض الجهاز العسكري والاستخباراتي “الإسرائيلي” في القيام بجرائمه الفظيعة ضدّ الشعب الفلسطيني في غزّة. إن الأنظمة التي تستخدمها “إسرائيل” في غزّة، جنبًا إلى جنب مع مختبر المراقبة الجماعية الذي أنشأته الحكومة “الإسرائيلية” منذ فترة طويلة ويتوسع باستمرار، يقدم لمحة عن مستقبل أكثر “ديستوبيًا” كارثيا بمعنى الكلمة، لأنه عندما نفكر في تأثير مثل هذه الأنظمة على حقوق الإنسان، نحتاج إلى النظر في العواقب، أولًا، إذا تعطلت وثانيًا، إذا عملت على النحو المقصود. في كلتا الحالتين، فإن تقليص الدور البشري له عواقب وخيمة على كرامة الناس وسلامتهم وحياتهم.

غادة محمد عامر – الدفاع العربي

اساسي