أثبت الذكاء الاصطناعي قدرات فائقة على محاكاة أسلوب البشر، لدرجة أنه أصبح من الصعب معرفة ما إذا كانت رواية معينة أو قصة قصيرة أو مقطوعة موسيقى قد تم تأليفها بواسطة البشر أم بواسطة الذكاء الاصطناعي، بل صدم تطبيق “شات جي بي تي” (ChatGPT) كثيراً من الناس بقدرته على الدخول في محادثات معقدة ومتشعبة معهم حول موضوعات مختلفة وبكفاءة عالية وكأن شخصاً يتحدث معهم.
فهل وصلت نظم الذكاء الاصطناعي “العام” – التي لديها القدرة على القيام بعدة وظائف في نفس الوقت – إلى مرحلة الاعتمادية والاستخدام أم لا زالت تعاني مشكلات جوهرية؟ هل هي تتطور بصورة أكبر وأسرع من قدراتنا نحن البشر على فهمها أم هناك مبالغة في تقدير كفاءتها وقدراتها؟ وبين هذا وذاك، يظهر احتمال ولو ضئيل بأن تتعرض نظم الذكاء الاصطناعي لانتكاسة ولو مؤقتة تفقدها مصداقيتها التي حظيت بها، إما بسبب سرعة تطورها أو بسبب عدم استعدادنا حتى الآن للتعامل معها.
تعلم أم ابتكار؟
إذا نظرنا إلى الذكاء الاصطناعي العام – وهنا أميز بينه وبين الذكاء الاصطناعي المتخصص الذي يقوم بوظيفة محددة – فسوف نجد أن الذكاء الاصطناعي عبارة عن طفل خارق، لم يكد يُولد حتى استطاع أن يمتلك قدرات خارقة، ويدرك من العلوم أصعبها ويحل من المسائل أعقدها، ويوفر إجابات سريعة بل ودقيقة قد لا يستطيع أستاذ جامعي أن يحصيها في تخصصه.
هذا حقيقي بالفعل، بل إن الأمر قد انتقل من مجرد توفير إجابات على أسئلة إلى القيام بوظائف تحتاج إلى مخيلة وإبداع كالرسم والتأليف. ويحدث ذلك من خلال تحليل كميات كبيرة من البيانات الضخمة التي تتم معالجتها وتنظيمها بصورة تُمكن نظم الذكاء الاصطناعي من خلق علاقات بينها لتوليد استنباطات منطقية. وبقدر جودة البيانات التي تم تغذية النظام بها وطريقة معالجتها، تكون جودة الإجابات التي يوفرها الذكاء الاصطناعي.
بيد أن طريقة اكتساب المعرفة عند الذكاء الاصطناعي بما يؤهله للقيام بهذه الوظائف، تختلف كلية عن نظيرتها عند البشر. وهنا لا أقصد بذلك أن جودة قرارات البشر أفضل، ولكن طريقة تعلمهم مقارنة بطريقة تعلم الذكاء الاصطناعي قد تكون أدق وأثقل؛ فالبشر يكتسبون مهاراتهم عبر سنوات من التجارب والتعلم، ويمرون بعملية إثقال وتنمية مهارات وحفظ معلومات خلال عدد لا يُحصى من التجارب الإنسانية.
فالإنسان يكتسب مهاراته ومعارفه عبر عقود يتعلم فيها كلمات وجُملاً وتراكيب معقدة، ثم يبدأ في توليد أفكار نابعة من عقله، ويبتكر من العدم، وأثناء هذا يمتزج الفكر بالثقافة بالدين بالمعلومة بالحدس بالخبرة التاريخية، ويحفظ الحمض النووي والجينات المعلومات الأساسية التي تضمن استمرار البشر على قيد الحياة. ويحدث هذا كله تحت إشراف نظام عقلي وبيولوجي شديد التعقيد، فيسهم ذلك في تكوين نسق فكري ومنهج إنساني قادر على الانتقاء والترتيب والترشيح والاختيار، على عكس نظم الذكاء الاصطناعي التي تعتمد فقط على التعلم اللحظي والفوري.
كما أن الدماغ البشري قادر على التعامل بكفاءة عالية جداً مع قدر قليل من المعلومات، فأنت بسهولة تستطيع أن تدرك أن “أبو محمد اسم ابنه محمد”، وهذه معلومة لم يستطع “شات جي بي تي” أن يدركها بداعي عدم توافر المعلومات، فالحاجة إلى معلومات ضخمة أمر ضروري لتعلم نظم الذكاء الاصطناعي، وجودة هذه البيانات أمر تتوقف عليه جودة الإجابة التي سوف يوفرها النظام.
وإذا كان الدماغ البشري قادراً على الابتكار من العدم، فإن الذكاء الاصطناعي لا يستطيع فعل ذلك، بل يحتاج إلى مئات “التيرابايت” من البيانات الضخمة التي تمت معالجتها لكي يتعلم منها ثم يضيف عليها. فقد يستطيع الإنسان أن يتخيل – مثلاً – شكل الشيطان ويصوره في فنونه بناءً على معارفه الإنسانية ورمزية دور الشيطان في حياة البشر، لكن الذكاء الاصطناعي لا يستطيع فعل ذلك دون أن يتعلم من صور سابقة تم رسمها لكائن شديد القبح فأخذها النظام الذكي وزادها قبحاً وقدمها على أنها الشيطان.
وبينما يهدف الذكاء الاصطناعي من التعلم إلى توفير إجابات لتساؤلات مطروحة، أو القيام بمنفعة وقتية، أو تحقيق مصلحة راهنة؛ فإن هدف البشر من التعلم هو فهم الأحداث وتفسيرها سواء للتكيف معها أو تغييرها، وليس الوقوف عند مرحلة توفير إجابات لتساؤلات مفتوحة. فإذا كان الذكاء الاصطناعي يسعى لمعرفة أن سبب وقوع التفاحة من على الشجرة هو وجود جاذبية أرضية، فإن البشر يسعون لمعرفة ماهية هذه الجاذبية وتأثيرها في حياتهم.
الخداع والخطأ:
إن السرعة التي يتعلم بها الذكاء الاصطناعي قد تؤدي إلى الوقوع في أخطاء، وقد يكون من الوارد ذلك ومن المقبول أيضاً، فالبشر وبالرغم من طريقة تعلمهم المعقدة فهم كذلك يخطئون. هذا حقيقي ولكن درجة الثقة التي قد يمنحها البشر للذكاء الاصطناعي ربما لا يمنحونها لبعضهم بعضاً، فثمة إدراك واسع أن البشر وبالرغم من علومهم يخطئون، وهناك حالة من التقبل لذلك والتكيف معه والاستعداد للتعامل معه؛ بيد أن المشكلة تصبح كبيرة حينما يرى البشر أن الذكاء الاصطناعي بكل ما أُوتي من قوة يصعب أن يقع في الخطأ، وهنا يصبح خطأ الذكاء الاصطناعي أشد خطراً من خطأ البشر لأنه حينها لن يتم إدراك أنه خطأ.
كما أن وقوع الذكاء الاصطناعي في هذا الخطأ لا يقتصر على القضايا الاجتماعية والجدلية فقط، بل حتى القضايا الحتمية قد يخطأ فيها الذكاء الاصطناعي، فتكون البيانات المُدخلة صحيحة ومُعالجة بصورة جيدة ولكن يخطأ النظام بسبب رغبته الشديدة في توفير إجابة سريعة وفورية لتساؤلاتك، أو بسبب فساد المدخلات التي حصل عليها.
ففي تجربة شخصية قُمتُ بها على تطبيق “ChatGPT”، أعطيته مسألة حسابية بسيطة للغاية، وهي أنه إذا كان عمر “إيهاب” ضعف عمر “مؤمن” حينما كان لدى الأخير عامان، فكم عمر إيهاب إذا كان عمر مؤمن 50 عاماً؟ الإجابة ببساطة هي 52 سنة، لأنه عندما كان مؤمن عمره سنتين كان إيهاب عمره 4 سنوات، وبالتالي فإن الفرق بينهما هو سنتان فقط، ولكن لسبب ما لم يستطع “ChatGPT” أن يجاوب عن هذا السؤال، وأعتقد أن ذلك بسبب رغبته في توفير إجابة سريعة دون الانتظار لثوانٍ قليلة للتأكد من صحة إجابته.
وما أدهشني في الإجابة عن هذا السؤال هو إصرار التطبيق على تقديم أكثر من دليل على صحة منطقه، بالرغم من أنه منطق فاسد وخاطئ، وهنا تكمن الخطورة في إمكانية اعتماد البشر على هذا النوع من الذكاء الاصطناعي السريع المُضلل.
الذكاء الاصطناعي المتخصص:
إن البحث عن نظام ذكاء اصطناعي عام وقوي وقادر على توفير إجابات لكل شيء وبسرعة هو أمر يشبه بحث عالم الفيزياء ستيفين هوكينج عن معادلة واحدة لتفسير الكون بكل ما فيه من كواكب وشموس وأجرام سماوية وظلام، فلا يمكن لمعادلة واحدة تحقيق ذلك، ولا يمكن لخوارزمية واحدة أيضاً أن تفعل، ففي الأمر تسطيح وتبسيط لمسألة شديدة التعقيد، ولا يمكن أن تتحقق على الأقل خلال هذه المرحلة التي تُعد بمثابة بداية فجر نُظم الذكاء الاصطناعي المتقدم.
فالبشر مختلفون في معارفهم وأفكارهم وإدراكاتهم، كما أنهم ليسوا على نفس الدرجة من التطور التكنولوجي؛ فبعضهم يستخدم تكنولوجيا قديمة، والآخر يستخدم تكنولوجيا حديثة، وفئة ثالثة لا تستخدم أياً منها، وهنا تختلف طبيعة البيانات التي يتم تغذية نظم الذكاء الاصطناعي بها وفقاً لطبيعة المستخدمين، فتكون الإجابات صالحة لفئة دون غيرها. يُضاف إلى ذلك، أنه على الرغم مما وصلت إليه البشرية من تقدم في العلوم، فإن حدود معرفتنا عن أنفسنا وعن الكون ما زالت محدودة وقاصرة، فكيف يمكن صياغة نظام ذكاء اصطناعي عام قادر على توفير إجابات لكل شيء؟ بالتأكيد الأمر صعب التحقيق وسيشوبه قصور.
لذا من الأفضل أن نهتم بتطوير الذكاء الاصطناعي المتخصص، الذي يركز على وظائف محددة تطبيقاً لمبدأ “التخصص في العمل”، فالتعويل على نظام ذكاء اصطناعي عام قادر على توفير معلومات حول كل شيء لم يتحقق بعد، والوعود التي قدمتها “شات جي بي تي” و”مايكروسوفت” و”جوجل” أشبه بوعود مارك زوكربيرغ حول “الميتافيرس”، فلا هي تحققت حتى الآن ولا هي بعيدة المنال. كل ما في الأمر أننا مازلنا في حاجة إلى مزيد من الوقت حتى تصل هذه النظم الذكية إلى مرحلة النضج حتى لا تتعرض لانتكاسة.
سرعة تطور مُخيفة:
قد يكون الذكاء الاصطناعي جيداً للغاية، وربما يكون أيضاً على صواب وخالٍ من الأخطاء والعيوب والنواقص، وقد يكون النموذج الأفضل للمعرفة البشرية ومصدر الحكمة التي افتقدتها الإنسانية؛ لكن هل نحن مستعدون لهذا النوع من التطور بهذه الكيفية في الوقت الحالي، أم أننا في حاجة إلى مزيد من الهدوء والتأني حتى يمكن تطوير هذه النظم الذكية على المسار الصحيح دون أن تتسبب في دمار البشرية؟
فتطور نظم الذكاء الاصطناعي بات يسير بسرعة أكبر من قدرتنا نحن البشر على مجاراتها، وأكبر من قدرتنا على معرفة تداعياتها، بل قد يتعرض الذكاء الاصطناعي للوقوع في الخطأ بسببنا نحن البشر؛ نتيجة لعدم قدرتنا على فهم الطريقة التي يتطور بها.
دعوات للمراجعة:
لعل هذا التطور المُخيف هو ما دفع الملياردير “إيلون ماسك” برفقة 1125 آخرين، من بينهم خبراء في الذكاء الاصطناعي، للتوقيع على خطاب مفتوح يدعو لوقف تطوير أنظمة الذكاء الاصطناعي الأكثر تقدماً لمدة 6 أشهر، وصدر الخطاب عن مؤسسة “Future of Life” غير الهادفة للربح، وتطالب مختبرات الذكاء الاصطناعي بوقف تدريب أي تقنية أقوى من “GPT-4” الذي أصدرته “OpenAI” في وقت سابق من شهر مارس 2023، وذكر الخطاب أن أنظمة الذكاء الاصطناعي المعاصرة أصبحت منافسة للبشر في المهام العامة، وأنه ينبغي أن نسأل أنفسنا هل يجب أن نسمح للآلات بأن تغمر قنوات المعلومات لدينا بالادعاءات والكذب؟ وشدد التقرير على أنه في حالة عدم وقف ذلك التطوير بسرعة، فإنه يتعين على الحكومات التدخل وفرض وقف مؤقت لتلك الأنشطة.
ومن ناحيتها، أعلنت السلطات الإيطالية، يوم 31 مارس 2023، حظر تطبيق “تشات جي بي تي”، وأرجعت قرارها إلى عدم احترام البرنامج للتشريعات المتعلقة بالبيانات الشخصية في إيطاليا، وعدم وجود نظام للتحقق من عمر المستخدمين القصّر، فضلاً عن عدم وجود أساس قانوني يبرر عملية الجمع الجماعي للبيانات الشخصية وتخزينها لغرض تدريب خوارزميات تشغيل المنصة، بالإضافة إلى تعرّض التطبيق في 20 مارس الماضي لعملية خرق وتسريب بيانات متعلقة بمحادثات المستخدمين والمعلومات المتعلقة بمدفوعات المشتركين في الخدمة المدفوعة.
ختاماً، يمكن القول إنه ما بين التخوف من سرعة تطور الذكاء الاصطناعي وتفوق قدراته على البشر، والتخوف من إمكانية إعطاء البشر ثقة مطلقة لنظم الذكاء الاصطناعي قد لا تكون أهلاً لها، تظل هناك تخوفات من تعرض نظم الذكاء الاصطناعي لانتكاسة نتيجة خطأ جسيم ينتج عنه تعريض حياة البشر للخطر أو فشل في الاعتمادية والاستخدام وعدم القدرة على توليد نتائج سليمة بكفاءة عالية، بما يتطلب وجود فترة كافية لإعادة النظر في التقدم الذي أحرزه الذكاء الاصطناعي إلى الآن وإعادة تقييم درجة كفاءته.
د. إيهاب خليفة – مركز المستقبل للأبحاث والدراسات المتقدمة
النص يعبر عن رأي الكاتب وليس بالضرورة عن رأي الموقع
التعليقات مغلقة.