تعليم

الاعتبارات الأخلاقية في التعلم الذي يحركه الذكاء الاصطناعي



تهدف إلى التعلم العادل والشفاف الذي يحركه AI

نظرًا لاستخدام الذكاء الاصطناعي (AI) أكثر فأكثر في التعليم والتدريب على الشركات ، فهو لا يجلب الفرص فحسب بل المخاطر أيضًا. من ناحية ، يمكن للمنصات تكييف المحتوى بناءً على أداء المتعلم ، والتوصية بما يجب تعلمه بعد ذلك ، وحتى تقييم الإجابات في غضون ثوان ، كل ذلك بفضل الذكاء الاصطناعي. من ناحية أخرى ، فإن التعلم الذي يحركه الذكاء الاصطناعي ليس عادلاً دائمًا. لماذا؟ تتعلم الذكاء الاصطناعي من البيانات التي يمكن أن تكون متحيزة أو غير مكتملة أو غير تمثيلية. وإذا لم تقم بقفل التحيزات وتصحيحها ، فقد يؤدي ذلك إلى علاج غير عادل ، وفرص غير متكافئة ، وعدم شفافية المتعلمين.

من المؤسف أن نفس الأنظمة التي تخصيص المتعلمين في التعلم وتفيدها في جميع المجالات يمكنها أيضًا استبعادها عن غير قصد. لذا ، كيف يمكننا الاستفادة من الذكاء الاصطناعي مع التأكد من أنها عادلة وشفافة ومحترمة لكل متعلم؟ يسمى العثور على هذا التوازن “استخدام الذكاء الاصطناعي الأخلاقي”. أدناه ، سوف نغوص في الجانب الأخلاقي للتعلم الذي يحركه الذكاء الاصطناعي ، ونساعدك على تحديد التحيز ، واستكشاف كيفية الحفاظ على الخوارزميات شفافة وجديرة بالثقة ، ونظهر لك التحديات وحلول استخدام الذكاء الاصطناعي بمسؤولية في التعليم والتدريب.

التحيز في التعلم الذي يحركه AI

عندما نتحدث عن الإنصاف في الذكاء الاصطناعي ، وخاصة في أنظمة التعلم التي تحركها الذكاء الاصطناعي ، فإن التحيز هو أحد أكبر المخاوف. ولكن ما هو بالضبط؟ يحدث التحيز عندما تتخذ الخوارزمية قرارات غير عادلة أو تعامل مجموعات معينة بشكل مختلف ، وغالبًا بسبب البيانات التي تم تدريبها عليها. إذا أظهرت البيانات عدم المساواة أو غير متنوعة بما فيه الكفاية ، فسوف يعكس الذكاء الاصطناعى ذلك.

على سبيل المثال ، إذا تم تدريب منصة تدريب منظمة العفو الدولية على البيانات بشكل رئيسي من مكبرات الصوت البيضاء والإنجليزية ، فقد لا تدعم المتعلمين من لغات مختلفة أو خلفيات ثقافية. قد يؤدي ذلك إلى اقتراحات محتوى غير ذات صلة أو حكم غير عادل أو حتى استبعاد الأشخاص من الفرص. هذا أمر خطير للغاية لأن التحيز يمكن أن يولد الصور النمطية الضارة ، ويخلق تجارب تعليمية غير متكافئة ، وجعل المتعلمين يفقدون ثقتهم. لسوء الحظ ، غالبًا ما يكون الأشخاص المعرضون للخطر من الأقليات ، والأشخاص ذوي الإعاقة ، أو المتعلمين من المناطق ذات الدخل المنخفض ، أو أولئك الذين لديهم تفضيلات تعليمية متنوعة.

كيفية التخفيف من التحيز في التعلم الذي يحركه AI

أنظمة شاملة

الخطوة الأولى في بناء نظام منظمة العفو الدولية الأكثر عدلاً هي تصميمه مع وضع إدراج في الاعتبار. كما أشرنا ، يعكس الذكاء الاصطناعى كل ما يتم تدريبه عليه. لا يمكنك أن تتوقع أن تفهم لهجات مختلفة إذا تم تدريبها فقط على البيانات من مكبرات الصوت في المملكة المتحدة والإنجليزية. يمكن أن يؤدي أيضا إلى تقييمات غير عادلة. لذلك ، يحتاج المطورون إلى التأكد من أن مجموعات البيانات تشمل أشخاصًا من خلفيات مختلفة ، والأعراق ، والأجناس ، والفئات العمرية ، والمناطق ، وتفضيلات التعلم بحيث يمكن لنظام الذكاء الاصطناعي استيعاب الجميع.

تقييمات التأثير ومراجعات

حتى إذا قمت بإنشاء نظام الذكاء الاصطناعي الأكثر شمولاً ، فأنت لست متأكدًا تمامًا من أنه سيعمل بشكل مثالي إلى الأبد. تحتاج أنظمة الذكاء الاصطناعى إلى رعاية منتظمة ، لذلك يجب عليك إجراء عمليات التدقيق وتقييمات التأثير. ستساعدك التدقيق في اكتشاف التحيزات في الخوارزمية في وقت مبكر وتسمح لك بإصلاحها قبل أن تصبح مشكلة أكثر خطورة. تأخذ تقييمات التأثير هذه الخطوة إلى الأمام ومراجعة كل من الآثار قصيرة الأجل والطويلة الأجل التي قد تحدثها التحيزات على متعلمين مختلفين ، وخاصة تلك الموجودة في مجموعات الأقليات.

مراجعة الإنسان

الذكاء الاصطناعي لا يعرف كل شيء ، ولا يمكن أن يحل محل البشر. إنه ذكي ، لكن ليس له تعاطف ولا يمكنه فهم السياق العام أو الثقافي أو العاطفي. لهذا السبب يجب أن يشارك المعلمون والمدربون وخبراء التدريب في مراجعة المحتوى الذي يولده وتقديم رؤية بشرية ، مثل فهم العواطف.

أطر AI الأخلاقية

أصدرت العديد من المنظمات أطر عمل وإرشادات يمكن أن تساعدنا في استخدام الذكاء الاصطناعي أخلاقيا. أولا ، اليونسكو [1] يعزز الذكاء الاصطناعي الذي يركز على الإنسان والذي يحترم التنوع والشمول وحقوق الإنسان. يشجع إطار عملهم الشفافية والوصول المفتوح وحوكمة البيانات القوية ، وخاصة في التعليم. ثم ، مبادئ منظمة التعاون الاقتصادي والتنمية في الذكاء الاصطناعي [2] ذكر أنه يجب أن يكون عادلاً وشفافًا ومساءلة ومفيدة للإنسانية. أخيرًا ، يعمل الاتحاد الأوروبي على لائحة منظمة العفو الدولية [3] على أنظمة الذكاء الاصطناعى التعليمية وخطط لمراقتها بدقة. يتضمن ذلك متطلبات الشفافية واستخدام البيانات والمراجعة البشرية.

الشفافية في الذكاء الاصطناعي

الشفافية تعني الانفتاح حول كيفية عمل أنظمة الذكاء الاصطناعي. على وجه التحديد ، ما هي البيانات التي يستخدمونها ، وكيفية اتخاذ القرارات ، ولماذا يوصون بالأشياء. عندما يفهم المتعلمون كيف تعمل هذه الأنظمة ، فإنهم أكثر عرضة للثقة في النتائج. بعد كل شيء ، يريد الناس معرفة سبب حصولهم على هذه الردود ، بغض النظر عن سبب استخدامهم لأداة الذكاء الاصطناعى. هذا يسمى التوضيح.

ومع ذلك ، فإن العديد من نماذج الذكاء الاصطناعي ليست سهلة دائمًا. وهذا ما يسمى مشكلة “الصندوق الأسود”. حتى المطورين يكافحون في بعض الأحيان من أجل الحصول على سبب وصول الخوارزمية بالضبط إلى استنتاج معين. وهذه مشكلة عندما نستخدم الذكاء الاصطناعي لاتخاذ قرارات تؤثر على تقدم الناس أو التطوير الوظيفي. يستحق المتعلمون معرفة كيفية استخدام بياناتهم وما هو الدور الذي تلعبه الذكاء الاصطناعي في تشكيل تجربتهم التعليمية قبل موافقةهم على استخدامها. بدون ذلك ، سيكون من الصعب عليهم أن يثقوا في أي نظام تعليمي يحركه AI.

استراتيجيات لزيادة الشفافية في التعلم الذي يحركه الذكاء الاصطناعي

نماذج الذكاء الاصطناعى يمكن تفسيرها

يدور AI (أو XAI) القابل للشرح (أو XAI) عن تصميم أنظمة الذكاء الاصطناعى التي يمكن أن تفسر بشكل واضح السبب وراء قراراتهم. على سبيل المثال ، عندما يتدرج LMS الذي يمكن تفسيره على AI-Quiz ، بدلاً من القول ، “لقد سجلت 70 ٪ ،” قد يقول ، “لقد فاتتك الأسئلة حول هذه الوحدة المحددة”. إعطاء فوائد السياق ليس فقط المتعلمين ولكن المعلمين أيضًا ، حيث يمكنهم اكتشاف الأنماط. إذا توصي AI باستمرار بمواد معينة أو إبلاغ المعلمين عن بعض الطلاب ، فيمكن للمعلمين التحقق مما إذا كان النظام يتصرف بشكل عادل. الهدف من XAI هو جعل منطق الذكاء الاصطناعى مفهومًا بدرجة كافية حتى يتمكن الأشخاص من اتخاذ قرارات مستنيرة ، أو طرح الأسئلة ، أو حتى تحدي النتائج عند الحاجة.

اتصال واضح

واحدة من أكثر الطرق العملية لتعزيز الشفافية هي ببساطة التواصل بوضوح مع المتعلمين. إذا توصي الذكاء الاصطناعى بالمحتوى ، أو الدرجات مهمة ، أو يرسل إخطارًا ، فيجب إخبار المتعلمين بالسبب. يمكن أن يكون هذا يوصي الموارد حول موضوع سجلوه في الدورات التدريبية أو اقتراحها بناءً على تقدم مشابه لأقرانهم. رسائل واضحة تبني الثقة ومساعدة المتعلمين على مزيد من السيطرة على معارفهم ومهاراتهم.

إشراك أصحاب المصلحة

يحتاج أصحاب المصلحة ، مثل المعلمين والمسؤولين ومصممي التعلم ، إلى فهم كيفية عمل الذكاء الاصطناعي أيضًا. عندما يعرف الجميع المعنيين ما الذي يفعله النظام ، وما هي البيانات التي يستخدمها ، وما هي حدوده ، يصبح من الأسهل تحديد المشكلات ، وتحسين الأداء ، وضمان الإنصاف. على سبيل المثال ، إذا رأى أحد المسؤولين أن بعض المتعلمين يتم تقديم دعم إضافي باستمرار ، فيمكنهم استكشاف ما إذا كانت الخوارزمية صحيحة أو إذا كانت بحاجة إلى ضبط.

كيفية ممارسة التعلم الأخلاقي الذي يحركه الذكاء الاصطناعي

قائمة مراجعة أخلاقية لأنظمة الذكاء الاصطناعى

عندما يتعلق الأمر باستخدام التعلم الذي يحركه AI ، لا يكفي الحصول على منصة قوية. تحتاج إلى التأكد من استخدامه أخلاقيا ومسؤولية. لذلك ، من الجيد أن يكون لديك قائمة مراجعة أخلاقية من الذكاء الاصطناعى عند اختيار البرنامج. يجب بناء وتقييم كل نظام تعليمي يعمل بذو الثقة بناءً على أربعة مبادئ رئيسية: الإنصاف والمساءلة والشفافية والتحكم في المستخدم. العدالة تعني التأكد من أن النظام لا يفضل مجموعة من المتعلمين على شخص آخر ؛ المساءلة تدور حول أن يكون شخص مسؤول عن الأخطاء التي قد يرتكبها الذكاء الاصطناعي ؛ الشفافية تضمن معرفة المتعلمين كيف يتم اتخاذ القرارات ؛ ويتيح التحكم في المستخدم للمتعلمين تحدي النتائج أو إلغاء الاشتراك في بعض الميزات.

يراقب

بمجرد تبني نظام تعليمي يحركه AI ، فإنه يحتاج إلى تقييم مستمر لضمان أنه لا يزال يعمل بشكل جيد. يجب أن تتطور أدوات الذكاء الاصطناعي بناءً على ردود الفعل في الوقت الفعلي ، وتحليلات الأداء ، ومراجعات منتظمة. وذلك لأن الخوارزمية قد تعتمد على بيانات معينة وتبدأ عن غير قصد مجموعة من المتعلمين. في هذه الحالة ، ستساعدك المراقبة فقط على اكتشاف هذه المشكلات في وقت مبكر وإصلاحها قبل أن تتسبب في ضرر.

مطوري التدريب والمعلمين

يتم تشكيل كل خوارزمية من قبل الأشخاص الذين يتخذون خيارات ، وهذا هو السبب في أنه من المهم للمطورين والمعلمين الذين يعملون مع التعلم الذي يحركه الذكاء الاصطناعى الحصول على التدريب. بالنسبة للمطورين ، هذا يعني حقًا فهم كيف يمكن أن تؤدي أشياء مثل بيانات التدريب وتصميم النماذج والتحسين إلى التحيز. يحتاجون أيضًا إلى معرفة كيفية إنشاء أنظمة واضحة وشاملة. من ناحية أخرى ، يحتاج المعلمون ومصممي التعلم إلى معرفة متى يمكنهم الوثوق بأدوات الذكاء الاصطناعي ومتى يجب عليهم استجوابها.

خاتمة

الإنصاف والشفافية في التعلم الذي يحركه الذكاء الاصطناعي أمران ضروريان. يجب على المطورين والمعلمين وأصحاب المصلحة الآخرين إعطاء الأولوية لتشكيل الذكاء الاصطناعي لدعم المتعلمين. يجب أن يبدأ الأشخاص الذين يقفون وراء هذه الأنظمة في اتخاذ الخيارات الأخلاقية في كل خطوة على الطريق حتى يحصل الجميع على فرصة عادلة للتعلم والنمو والازدهار.

مراجع:

[1] أخلاقيات الذكاء الاصطناعي

[2] مبادئ الذكاء الاصطناعي

[3] قانون الاتحاد الأوروبي: أول لائحة على الذكاء الاصطناعي

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى