المخاطر والأخلاقيات في التعليم بالذكاء الاصطناعي بقلم :الدكتورة ايناس صبحي

362

 

المرفأ…حماية البيانات، الخصوصية، والتحيّز الخوارزمي… بين الفرص والتحديات
تحوّل رقمي سريع يسبق الأطر التنظيمية
لم يعد الذكاء الاصطناعي مجرد تقنية ناشئة في القطاع التعليمي، بل أصبح جزءًا لا يتجزأ من الفصول الدراسية والجامعات حول العالم. ففي الولايات المتحدة مثلًا، تضاعفت نسبة الطلاب المراهقين الذين يستخدمون أدوات مثل ChatGPT في أداء الواجبات المدرسية إلى 26% خلال العام الدراسي 2024/2025 مقارنة بالعام السابق. كما أشار نحو 60% من المعلمين إلى استخدامهم أدوات الذكاء الاصطناعي، ما وفر لهم قرابة 6 ساعات عمل أسبوعيًا في المتوسط.
لكن هذه الوتيرة المتسارعة في التبنّي تقابلها فجوة واضحة في السياسات التنظيمية. فبحسب تقرير صادر عن اليونسكو (2023)، أقل من 10% من المدارس والجامعات حول العالم وضعت إرشادات مؤسسية واضحة لاستخدام الذكاء الاصطناعي التوليدي.
أما في العالم العربي، فعلى الرغم من إدماج الذكاء الاصطناعي ضمن استراتيجيات وطنية طموحة كما في الإمارات والسعودية ومصر، لا تزال التطبيقات الفعلية متباينة. فالتحديات تشمل ضعف البنية التحتية الرقمية، وقصورًا في التوعية المجتمعية حول حماية البيانات، بالإضافة إلى نقص التدريب الكافي للمعلمين، واعتماد بعض المؤسسات على حلول تقنية أجنبية دون تقييم محلي شامل للمخاطر الأخلاقية.
حماية البيانات والخصوصية: أولوية غائبة
مع تزايد الاعتماد على الحلول الرقمية، بات قطاع التعليم هدفًا مباشرًا للهجمات الإلكترونية. فقد سجّل تقرير Verizon 2024 في قطاع “الخدمات التعليمية” أكثر من 1,780 حادثة أمنية، منها 1,537 اختراقًا مؤكدًا، معظمها ناتج عن تسلل للأنظمة أو أخطاء بشرية أو هجمات الهندسة الاجتماعية.
كما كشف استطلاع لشركة Sophos أن 63% من مؤسسات التعليم ما قبل الجامعي و66% من الجامعات تعرضت لهجمات فدية خلال عام، حيث تم تشفير بيانات 85% من الضحايا تقريبًا.
في الدول العربية، تبدو الصورة أكثر هشاشة. إذ تعاني المؤسسات التعليمية من ضعف في البنية التحتية للأمن السيبراني، مع اعتماد متزايد على مزودي خدمات خارجيين دون رقابة كافية. ويزيد غياب قوانين موحدة لحماية الخصوصية التعليمية من مخاطر تسرب البيانات الحساسة.
التحيّز الخوارزمي: عدالة التعليم على المحك
أظهرت أبحاث حديثة من Stanford HAI أن بعض كواشف الذكاء الاصطناعي تميز بشكل خاطئ بين النصوص “البشرية” وتلك “المولدة آليًا”، خاصة عند تقييم أعمال المتعلمين غير الناطقين بالإنجليزية، ما يكشف عن تحيّز خوارزمي ضد التنوع اللغوي والثقافي.
كما أشارت دراسات منشورة في PNAS Nexus إلى إمكانية خداع كواشف النصوص ببساطة عبر إعادة الصياغة، وهو ما يطرح تساؤلات حول دقة وعدالة هذه الأدوات، خصوصًا عندما تُستخدم للحكم على سلوك الطلبة أو رصد محاولات الغش الأكاديمي.
في العالم العربي، حيث يهيمن المحتوى التعليمي الإنجليزي على المنصات الرقمية، تزداد الفجوة. إذ أن غياب المحتوى العربي المناسب، وضعف قواعد البيانات المحلية، قد يؤدي إلى نتائج منحازة تُقصي الطلبة الناطقين بالعربية من فرص عادلة للتقييم.
وتبقى تجربة بريطانيا عام 2020 مثالًا واضحًا على هذه التحديات، حين أدت خوارزمية لتوحيد نتائج الثانوية العامة إلى خفض درجات ما يقارب 39% من الطلبة بشكل غير عادل، قبل أن تتراجع الحكومة تحت ضغط الرأي العام.
مقاربة التوازن: كيف نضمن الاستخدام الآمن والمسؤول؟
للحد من مخاطر الذكاء الاصطناعي في التعليم دون تفويت فرصه، تُوصي الجهات المختصة بمجموعة من السياسات والإجراءات، أبرزها:
اعتماد سياسات مؤسسية واضحة: تنظم ما هو مسموح وممنوع من استخدامات الذكاء الاصطناعي.
تقييم أدوات الذكاء الاصطناعي: خصوصًا تلك المصنّفة عالية المخاطر، من حيث الأمان وحماية البيانات.
حوكمة شفافة: عبر تشكيل لجان تضم معلمين وخبراء قانون وأمن معلومات.
شروط على الموردين: تشمل الإفصاح عن بيانات التدريب، والتحيزات، وفترات الاحتفاظ بالبيانات.
تمكين المعلمين والطلبة: عبر التدريب على الاستخدام الآمن والمسؤول.
ضبط التقييم الأكاديمي: بعدم الاعتماد الحصري على كواشف الغش، وتبني بدائل مثل المشاريع والعروض.
تعزيز الأمن السيبراني: باستخدام النسخ الاحتياطي، المصادقة متعددة العوامل، وتدريب الكوادر.
وتزداد أهمية هذه الخطوات في العالم العربي، في ظل التوجهات الاستراتيجية نحو التحول الرقمي، كما في رؤية السعودية 2030، واستراتيجية الإمارات للذكاء الاصطناعي 2031، ومبادرات “مصر الرقمية”.
دروس من الواقع: نماذج ميدانية
بعض التطبيقات الحديثة تكشف عن أهمية وجود بروتوكولات واضحة:
أنظمة مراقبة الامتحانات آليًا: يجب اختبارها على عينات متنوعة، وتوفير آلية للاستئناف في حال الاعتراض.
منصات التعلم الذكي: ينبغي أن توضح بدقة ما يُجمع من بيانات، وما يُحظر جمعه.
أنظمة القبول الآلي: لا بد من التحقق منها عبر التقييم البشري المتوازي قبل الاعتماد الرسمي.
التصحيح الآلي في الجامعات: أثار جدلًا واسعًا في بعض التجارب العربية، لا سيما مع غياب الشفافية، وتجاهل حماية خصوصية الطلبة.
خاتمة: التكنولوجيا تحتاج إلى أخلاق
يُمكن للذكاء الاصطناعي أن يُحدث تحولًا إيجابيًا في العملية التعليمية، من تخصيص المحتوى إلى دعم المعلمين في أداء مهامهم. إلا أن غياب السياسات الأخلاقية والتشريعات الواضحة قد يحوّله من أداة تقدم إلى مصدر خطر.
في السياق العربي، لا يقتصر النجاح في إدماج الذكاء الاصطناعي على شراء التكنولوجيا أو تبني الاستراتيجيات الكبرى، بل يتطلب تأسيس أطر تشريعية، توطين المحتوى، وتأهيل المعلمين ليكونوا شركاء فاعلين في هذا التحول.
وتبقى الحاجة ماسة إلى سنّ قوانين وطنية لحماية البيانات التعليمية، مع الاستفادة من التجارب العالمية، كقانون الاتحاد الأوروبي للذكاء الاصطناعي (2024) الذي اعتبر أنظمة التعليم ضمن الفئات عالية المخاطر.
الطريق إلى تعليم أكثر عدالة يمر عبر الموازنة الدقيقة بين الابتكار والحماية، بين الكفاءة والعدالة، وبين الآلة والإنسان.

 

خبيرة التحول الرقمي والذكاء الاصطناعي

قد يعجبك ايضا