لماذا يثير روبوت ChatGPT مخاوف المعلمين؟

هل يستطيع المعلم حل قضية الغش لدى الطلاب بعد استخدامه الذكاء الاصطناعي

أدى تطور أنظمة الذكاء الاصطناعي إلى ظهور تحديات جديدة حول استخداماتها، ومن أبرز هذه الأنظمة حاليًا روبوت الدردشة التفاعلية (ChatGPT) الذي أطلقت شركة OpenAI إصدارًا تجريبًا له قبل أسابيع قليلة، والذي أثار مخاوف المعلمين والأساتذة في الجامعات والمعاهد، حيث إنه يتيح للطلبة الغش على نطاق واسع، من دون القدرة على كشفهم.

يختلف روبوت ChatGPT عن جميع روبوتات الدردشة التفاعلية المتاحة بأنه يجرى محادثات مع المستخدمين بانسيابية عالية، ويعطي إجابات مكتوبة بلمسة بشرية عن أسئلة صعبة كأنك تتحدث مع شخص آخر، كما أنه يرفض الإجابة عن بعض الأسئلة غير الملائمة؛ مثل: كيفية التنمر أو كيفية سرقة منزل، وغيرها.

روبوت ChatGPT والغش الدراسي:

نظرًا إلى الضجة التي أحدثها روبوت (ChatGPT)، بدأ المعلمون بتجربة الروبوت ليتعرفوا على ما يواجهونه، وبالرغم من أن إجابات الروبوت عن الأسئلة الأكاديمية لم تكن مثالية، إلا أنها كانت قريبة جدًا مما يتوقعه المعلمون من طلابهم.

لذلك تساءل المعلمون هل يمكن أن يستخدم طلابهم روبوت (ChatGPT) في كتابة التقارير والمقالات المطلوبة منهم، وكذلك تمارين البرمجة دون علمهم؟ وكيف سيؤثر انتشار مثل هذه الأدوات في مستواهم الدراسي؟

عادة ما يكلف المعلمون الطلاب بمهمة كتابة المقالات لأنها تعلمهم الكثير من المهارات المهمة، مثل: البحث في موضوع المقال، وتصنيف الادعاءات والحكم عليها، وجمع المعلومات التي وجدوها ثم التعبير عنها بأسلوبهم.

لذلك بالنسبة لبعض الطلاب، فإن روبوت (ChatGPT ) أصبح أداة سحرية تقوم بالواجبات المدرسية بدلًا عنهم، فقد قال أحد الطلبة للصحيفة: “إنه استخدم ChatGPT مرتين لحل واجباته المدرسية”. وقد خطرت له الفكرة بعد أن رأى الناس يشرحون عبر تويتر مدى قوة الأداة بعد إصدارها في 30 نوفمبر 2022.

الذكاء الاصطناعي ومخاطره الأخلاقية:

طورت شركة OpenAI روبوت الدردشة ChatGPT باستخدام النموذج اللغوي الكبير (GPT-3.5) الذي طورته لسنوات للتنبؤ باللغة، حيث دربته على التنبؤ بالكلمة التالية في الجملة من خلال تحليل كميات هائلة من نصوص الإنترنت والعثور على الأنماط عن طريق التجربة والخطأ، وبذلك يمكنه إنشاء نص لا يمكن تمييزه عن النص البشري في كثير من الحالات.

اشتمل التطوير الأولي لروبوت (ChatGPT) على مدربين للذكاء الاصطناعي يزودونه بمحادثات لعبوا فيها كلا الدورين، دور المستخدم ودور مساعد الذكاء الاصطناعي، كما غُذي بإجابات لمستخدمين عاديين لجعل إجاباته أكثر تحادثية، وقد لاحظ الكثيرون قدرته على إنتاج فقرات غالبًا ما تكون فكاهية أو فلسفية.

ومع ذلك، فإن بعض ردوده كانت خاطئة تمامًا أو متحيزة، حيث اعترف كُتاب المحتوى بأن روبوت ChatGPT ليس مثاليًا، ويقدم في بعض الأحيان إجابات مضللة.

يفترض متخصصو التوعية أنه بمرور الوقت سيتحسن روبوت (ChatGPT) وكذلك أدوات الذكاء الاصطناعي المشابهة، كما ستزداد معرفة الطلاب بها. يقول بعضهم إن المعلمين سيعدلون تقييماتهم لأخذ إمكانية الغش بالاعتبار، على سبيل المثال، سيطلبون من الطلاب حل الواجبات المدرسية أثناء الفصل الدراسي، حيث يمكن مراقبتهم، بينما قد يفكر الآخرون في كيفية كتابة الأسئلة التي تتطلب تفكيرًا أعمق، وهو ما يمثل تحديًا أكبر للروبوت.

وبذلك ستظهر تحديات كبرى أمام المعلمين، يتفق العديد من المعلمين على أن تعلم الكتابة لا يمكن أن يَحدث إلا عندما يتصارع الطلاب مع الأفكار ويضعونها في جمل، حيث يبدأ الطلاب بعدم معرفة ما يريدون قوله، وأثناء الكتابة يكتشفونه.

بينما يفكر المعلمون في طرق للتعايش مع أدوات الذكاء الاصطناعي الجديدة، تفكر بعض الشركات في طرق للتغلب عليها:

تبحث الآن شركة (Turnitin) – التي طورت برمجيات مستخدمة على نطاق واسع لكشف المحتوى غير الأصلي في البحوث العلمية للطلبة والباحثين لمنع السرقات العلمية – عن طرق لاكتشاف المواد التي ينتجها الذكاء الاصطناعي.

يقول مسؤولو الشركة: “إن المقالات الآلية تختلف عن الأعمال التي يكتبها الطلاب في نواح كثيرة، حيث يكتب الطلاب بطريقتهم الخاصة، وهذا غائب عن محتوى ChatGPT”.

كما قالت (ساشا لوتشيوني) Sasha Luccioni وهي عالمة أبحاث في شركة الذكاء الاصطناعي (Hugging Face): “إن OpenAI يجب أن تسمح للجمهور بتصفح الكود البرمجي لروبوت ChatGPT، لأنه عندها فقط يمكن للعلماء بناء أدوات قوية حقًا لكشف الغش”.

شركة OpenAI نفسها تبحث عن حلول:

قال (سكوت آرونسون) الباحث في شركة (OpenAI): “إن الشركة تستكشف طرقًا مختلفة لمحاربة إساءة الاستخدام، منها: استخدام العلامات المائية، أو تقديم أدوات تكتشف إجابات روبوت ChatGPT”.

تساءل بعض المستخدمين حول مدى جدوى حل العلامة المائية وهل سيكون كافيًا، ليرد (آرونسون) قائلًا: “ما زلنا نجري تجارب لتحديد أفضل نهج لمحاربة إساءة الاستخدام وقد يكون هناك أكثر من نهج معًا”.

في حين كان لدى روبوت (ChatGPT) أفكاره الخاصة حول الحل، عند سؤاله عن كيفية مواجهة احتمال الغش، قدم الروبوت عدة اقتراحات، منها: تثقيف الطلاب حول عواقب الغش، أو توفير مراقبة أثناء حل الاختبارات، أو جعل الأسئلة أكثر تعقيدًا، أو منح الطلاب الدعم الذي يحتاجون إليه حتى لا يروا الحاجة إلى الغش.

وفي النهاية أوضح الروبوت أنه من المهم للمعلم أن يتواصل بوضوح مع الطلاب بشأن توقعاته للنزاهة الأكاديمية واتخاذ خطوات لمنع الغش؛ لأن هذه الخطوة ستساعده في خلق ثقافة الصدق والنزاهة في الفصل الدراسي الخاص به.

لماذا نستخدم الذكاء الاصطناعي بالرغم من معضلاته الأخلاقية؟

تعمل الثورة التكنولوجية على تغيير حياتنا بسرعة هائلة، حيث تغيّر بشكل كبير الطرق التي نعمل ونتعلم بها، وكذلك تلك التي نعيش بها معًا، وليس هناك شك في أن الذكاء الاصطناعي يمر بمرحلة تطور هائلة خلال هذه الفترة الحالية؛ حيث ظهرت العديد من تطبيقاته وأدواته الجديدة في العديد من القطاعات، منها: الأمن والبيئة والبحث والتعليم والصحة والفن والتجارة.

ومن المتوقع أن يُغير الذكاء الاصطناعي العديد من المهن التي يقوم بها البشر قريبًا، لذلك فإن النهج الصحيح في مواجهة هذه التقنيات هو معرفة كيفية استخدامها لتحسين البشرية.

سيؤدي الذكاء الاصطناعي إلى شكل جديد من الحضارة الإنسانية، لذلك يجب علينا أن نتأكد من تطويره من خلال نهج إنساني قائم على القيم، لأن ثورة الذكاء الاصطناعي تفتح آفاقًا جديدة للحضارة الإنسانية، لكن المعضلات الأخلاقية التي تظهر لها تتطلب دراسة متأنية.