أخلاقيات الخوارزميات

00:29 صباحا
قراءة دقيقتين

الخوارزميات تحدد عالمنا بحاضره ومستقبله، فنحن نستخدمها بشكل متزايد لاتخاذ قرارات تمس تعاملاتنا المهنية والشخصية، وهناك أنواع كثيرة من هذه البرامج تؤثر في استقرارنا وأمزجتنا وصحتنا، كما أنها تقرر بالنيابة عن ما يصلنا من معلومات، وما يتم حجبه، وما نشاهده ونتأثر به لأغراض سياسية أو اقتصادية، وهي ليست ببعيدة عن متناول أيدينا بشكل يومي، مما يجعل مسألة مدى حيادية الخوارزميات أمراً مثيراً للقلق، فما هي أسباب ذلك، وكيف يمكن التعامل مع هذا التحيز الخوارزمي؟
ينشأ التحيز الخوارزمي من خلال نقص بيانات التدريب المناسبة، أو نتيجة تصميم أو تكوين نظام غير مناسب، أي أنه يحدث بفعل التحيزات اللاواعية التي نعانيها نحن البشر، مطبقاً «نموذج جيم الجديد» لإعادة إنتاج البيانات وحالة عدم المساواة الموجودة على أرض الواقع، فمثلاً «كومباس» وهي خوارزمية مستخدمة على نطاق واسع في الولايات المتحدة لتوجيه الأحكام من خلال التنبؤ باحتمالية ارتكاب الجرائم، وقد تم اكتشاف أنها متحيزة عنصرياً في عام 2016، فوفقاً للتحليل، يتنبأ النظام أن الأشخاص من ذوي البشرة السوداء يشكلون خطراً على من حيث العودة إلى الإجرام، كذلك نشرت «إم آي تي» تكنولوجي ريفيو تقريراً ذكرت فيه أن هناك مواقع مثل« لينكد إن» تسعى لإزالة التحيز من برمجياتها الخاصة بمقابلات العمل، والتي كانت تتحيز ضد أصحاب الهمم، والنساء المرشحات للعمل، كما أن خوارزميات موقع تويتر و«تيك توك» تعمل على إعاقة انتشار بعض الوسوم أو المقاطع وفق تصنيفات اللون، العرق أو النشاط الاجتماعي.
في محاضرة هي الثانية من نوعها قدمها الدكتور سعيد الظاهري بدعوة من جامعة أكسفورد، بعنوان «الذكاء الاصطناعي المسؤول أساس للثقة في خوارزميات الذكاء الاصطناعي»، ركز الدكتور الظاهري على إخفاقات وفشل بعض تطبيقات الذكاء الاصطناعي بسبب وجود التحيزات في البيانات التي تم تدريب خوارزميات الذكاء الاصطناعي عليها والتي تؤثر في ثقة المجتمع في هذه التطبيقات، مشيراً إلى أنه يمكن للمؤسسات تطبيق «الذكاء الاصطناعي المسؤول» من خلال بناء الهيكلة والحوكمة اللازمة، وضع مبادئ أخلاقيات الذكاء الاصطناعي وتطبيقها، تعيين مديري الامتثال والأخلاقيات، وتوجيه المسؤولين لتطبيق الذكاء الاصطناعي المسؤول.
تسعى الكثير من دول العالم لتطبيق مبادئ الذكاء الاصطناعي المسؤول، وهناك عدد من المبادرات بعضها في طور الدراسة، أما في دولة الإمارات فهناك مجموعة من المشاريع الواعدة تهدف إلى «بناء أمة ذكاء اصطناعي مسؤولة» وأهمها إطلاق مبادئ وإرشادات أخلاقيات الذكاء الاصطناعي 2019، قانون حماية البيانات 2021 لحماية قطاعات الأعمال، والبيانات الشخصية، بالإضافة إلى مشاريع مستقبلية مثل إطلاق ختم UAI، لاعتماد منتجات الذكاء الاصطناعي.
[email protected]

التقييمات
قم بإنشاء حسابك لتتمكن من تقييم المقالات

عن الكاتب

المزيد من الآراء

لاستلام اشعارات وعروض من صحيفة "الخليج"