محمد علي | خاص الناشر
برزت في السّنوات الأخيرة تقنيّات الذّكاء الاصطناعيّ (Artificial Intelligence) لتُحدث ثورة في مجالات مختلفة، سواء على مستوى الأبحاث والدّراسات العلميّة أو في تطوير عالم الأمن والعسكر أو غير ذلك. وقد كان تأثير هذه التّقنيّات كبيرًا إلى درجة أنّه أثار تساؤلات وتأمُّلات جدِّيَّة حول التَّحدِّيات الأخلاقيّة التي قد تواجه البشريّة مع ازدياد اعتمادها على هذه التّقنيّات، خاصّة بلحاظ ما نكاد أن نقطع به من كون “ما خفي أعظم”. لكن مع ذلك، من الثّمار اللّافتة لتقنيّة الذّكاء الاصطناعيّ – والتي لا شبهة في إيجابيّتها – أنّ من شأنها تحسين أنظمة العدالة الجنائيّة، ولذا يتمّ استخدامها في أكثر من بلد من قِبل الدّول لأجل تطوير الكفاءة الفرديّة والجهازيّة وتحسين الدِّقَّة العمليّاتيّة للشُّرطة وما إلى ذلك. في هذه المقالة، نودّ أن نسلّط الضّوء على بعض الأساليب التي يمكن فيها للدّولة أن تستفيد من الذّكاء الاصطناعيّ في ميدان العدالة الجنائيّة.
أتمتة المهامّ بحسب الأولويّات (Priority – Based Task Automation)
من الأدوار الرّئيسيّة للذّكاء الاصطناعيّ في ميدان العدالة الجنائيّة وأعمال الشُّرطة هو أتمتة المهامّ الرّوتينيّة، إذ بإمكان خوارزميّات الذّكاء الاصطناعيّ أن تقوم بتحليل كمِّيَّات كبيرة من التّقارير والبيانات والاتّصالات، ومن ثَمّ تنظيم عمل الشُّرطة بحيث يكون مبتنيًا على الأولويّات المُحدَّدة بحسب المخاطر أو الأضرار المادِّيَّة أو غيرها. ويكمن وجه الفائدة من اعتماد هذا الأُسلوب في أمرين: أوّلًا، يؤدّي إلى حالة من التّمركز في اهتمامات الشُّرطة وبالتّالي إلى تجويد أدائها وتعزيز كفاءتها في مجال انفاذ القانون، وثانيًا، يساعد في حلّ مشكلة تشكو منها الكثير من وكالات انفاذ القانون (law – enforcement agencies) حول العالم، وهي نقص الضُّبَّاط والموظّفين وبالتّالي تكليفهم بمهامّ اضطراريّة ووظائف إضافيّة.
الشُّرطة التَّنبُّئيّة (Predictive Policing)
دور مهمّ آخر للذّكاء الاصطناعيّ في تحسين نظام العدالة الجنائيّة هو الشُّرطة التَّنبُّئيّة. تقوم الخوارزميّات بتحليل البيانات التّاريخيّة للجريمة من أجل التَّنبُّؤ بطبيعة الجرائم التي قد تقع بحسب المعطيات الزّمانيّة والاجتماعيّة وغيرها، والتَّنبُّؤ بالأماكن التي من المُحتمَل أن تحدث فيها تلك الجرائم. فتتمكّن وكالات انفاذ القانون من تخصيص الموارد البشريّة والمادِّيَّة بشكل أكثر فعاليّة، ومن توقُّع النّقاط السّاخنة، وبالتّالي منع الجرائم قبل حدوثها. كما أنّ لهذا الأُسلوب فائدة على مستوى معالجة أسباب وقوع الجرائم باعتبار أنّه بإمكان الذّكاء الاصطناعيّ أن يقدّم حلولًا في هذا المضمار وفق ما يكون معلومًا من تفاصيل القضايا؛ غير أنّ هذا يعتمد إلى حدّ كبير على تمكُّن مؤسّسات الدّولة أو المنظّمات غير الدّوليّة من توثيق الجرائم والحوادث الواقعة في المجتمع ليتمّ تحليلها بشكل دقيق.
الإجرام المتكرّر (Criminal Recidivism)
كما أنّ الذّكاء الاصطناعيّ قادر على معالجة مشكلة أُخرى تشكّل عنوانًا مستقلًّا في عالم العدالة الجنائيّة، وهي تكرار الجناية، وذلك من خلال تحليل السّجلّات للتَّنبُّؤ بالجرائم المتكرّرة ومواردها المُحتمَلة. بشكل مختصر، يقوم الباحثون باستخدام الخوارزميّات من أجل تحليل مجموعات البيانات مع سجلّات المذّكرات وتفاصيل القضايا الجنائيّة، ثمّ تصمّم الخوارزميّات “أشجار قرار” (decision trees) وتُجري بعد ذلك “تحليل بقاء” (survival analysis) لتُحدّد الفترة الزّمنيّة حتّى الحدث التّالي وتقدّر خطر إعادة الإجرام للجناة الفارّين في حال عدم تنفيذ المذكّرات مثلًا.
الإصلاح القانونيّ والقضائيّ
ثمّ إنّ الذّكاء الاصطناعيّ قد يشكّل داعمًا كبيرًا لحركات الإصلاح القانونيّ والقضائيّ فيما لو استُخدم في إطار تحليل نصوص القوانين وإرشادات إصدار الأحكام، ومن أجل مراجعة قرارات المحاكم والمحاضر والوثائق ذات الصّلة. بإمكانه حينئذٍ أن يحدّد الأنماط اللُّغويّة أو الصّياغات والمعايير التي قد ترمز أو تسمح بتحيّزات عرقيّة أو دينيّة أو غيرها في صدور الاتّهامات والأحكام. بل ويستطيع أن يسلّط الضّوء على التّفاوتات في صدور الاتّهامات والأحكام فعلًا، بأن يُجري تحليلًا لمجموعات البيانات ويقوم بتحديد الموارد التي تلقّى فيها المتّهمون أحكامًا أشدّ نسبة إلى غيرهم ممّن ارتكب جرائم مماثلة، نتيجة عوامل خارجيّة كانتمائهم الدّينيّ أو العرقيّ أو ما شابه. والجانب القانونيّ ليس أمرًا هامشيًّا، بل قد استنتجت بعض الدّراسات أنّ “استخدام نُظم الذّكاء الاصطناعيّ من أجل تهيئة البيانات الإحصائيّة، والمساعدة في إعداد الوثائق القانونيّة، وتصفُّح المواقع الشّبكيّة لجمع المعلومات، واتّخاذ القرارات بشأن توصيف الأفعال الإجراميّة سيكون الأكثر نجاحًا”.
تحدّيات وشواغل
نعم، هناك بعض التّحدّيات والشّواغل الأخلاقيّة التي لا بُدّ من ملاحظتها في هذا المجال. فعلى سبيل المثال، هناك مخاوف بشأن التَّحيُّزات التي قد تؤدّي إلى تقديم مصلحة بعض الأعراق أو الأديان أو الجهات أو حتّى الثّقافات على غيرها، إذ قد تعكس وتُعزّز تحيُّزات موجودة حاليًّا في نظام العدالة الجنائيّة؛ أو بشأن عدم الشّفافيّة في عمليّات صنع القرار لو أُوكلت بعض المهامّ القانونيّة أو الميدانيّة إلى تقنيّة الذّكاء الاصطناعيّ في تشخيص التّهديدات ومبالغته في تقييم المخاطر أو التّعامل معها. وهذا قد يؤدّي إلى مشاكل أمنيّة وقانونيّة مخيفة لو وقع نتيجة خطأ تقنيّ، فكيف لو تمّ عن عمدٍ من قِبل بعض الجهات لأجل مصالح أمنيّة أو سياسيّة؟! هذا وقد أكّدت الدّراسة المذكورة على ضرورة إجراء دراسة تفصيليّة حول مدى مسؤوليّة مهندس برامج الذّكاء الاصطناعيّ في حال تسبّب برنامج معيّن بضرر.
ختامًا، مع بلورة كيفيّة الاستفادة من تقنيّة الذّكاء الاصطناعيّ في مختلف المجالات، من المرجّح أن يتوسّع دورها في تطوير أنظمة العدالة الجنائيّة ومكافحة الجرائم في المجتمع. وقد رأينا بعض الأجهزة الأمنيّة تستخدم معدّات المراقبة التي تعمل بتقنيّة الذّكاء الاصطناعيّ في المطارات والأماكن العامّة، بما فيها الكاميرات والأجهزة الأُخرى ذات القدرة على معرفة الوجه (facial recognition). فمن المهمّ لواضعي السّياسات ووكالات انفاذ القانون والباحثين أن يعتنوا بأُفق هذه التّقنيّات من جهة آثارها العمليّة مع الالتفات إلى ما ذُكر وما لم يُذكر من مخاوف. وهذا أمر ممكن وقد يكون عاملًا مساعدًا في إكمال دور مؤسّسات الدّولة وحفظ الأمن العامّ لو تمّ بالشّكل الصّحيح وتحت رقابة جديرة.