تكنولوجيا

تحيز الذكاء الاصطناعي: التحديات والحلول في تكنولوجيا التعلم الآلي

يشير مفهوم “تحيز الذكاء الاصطناعي” إلى ميل الأدوات التكنولوجية الجديدة لتقديم نتائج غير دقيقة نتيجة التحيز لصالح إحدى النتائج على حساب الأخرى الأكثر دقة أو صحة.

و تظهر هذه الظاهرة بشكل شائع في نماذج الذكاء الاصطناعي التي تم تدريبها باستخدام بيانات محددة، مع تجاهل فئات بيانات أخرى مكملة أو مضادة، مما قد يؤدي إلى استنتاجات خاطئة في عملية التعلم الآلي.

يمكن أن يؤدي هذا التحيز إلى تقديم نتائج غير دقيقة بناءً على المدخلات النصية التي يقدّمها الأفراد. ومن المعروف أن اتخاذ قرارات بناءً على معلومات غير دقيقة قد يؤدي إلى نتائج غير مقبولة.

و تعود هذه المشكلة إلى البيانات التي يتم تدريب نماذج الذكاء الاصطناعي عليها، والتي قد تحتوي على تمييز بين فئات المجتمع المختلفة، سواء كان ذلك بقصد أو غير عمد، مما يؤثر على النتائج التي يقدمها النموذج.

كما أن المطالبات المتكررة من منطقة معينة قد تساهم في تعميق التحيز، حيث يفترض النموذج أن المشكلة تقتصر على تلك المنطقة دون غيرها.

dc77225a db16 4fa2 89c5 0f0d25b4101a Detafour

تشير بعض النماذج الرياضية والإحصائية التي تُستخدم في بناء الذكاء الاصطناعي إلى إمكانية حدوث تحيز، خاصة إذا كانت النماذج قد نجحت في مجتمع معين ولكنها فشلت في تطبيقها على مجتمعات أخرى. كما قد تكون بعض النماذج الرياضية غير دقيقة بما يكفي.

ولحل هذه المشكلة، من الضروري تطوير مفاهيم جديدة للعدالة والمصطلحات الاجتماعية بطريقة رقمية، بحيث تتمكن نماذج الذكاء الاصطناعي من فهمها واستخدامها في اتخاذ القرارات، مع مراعاة هذه المفاهيم عند تقديم النتائج.

لتوضيح الأمر، هناك بعض الأمثلة الواقعة التي حدثت بسبب تحيز الذكاء الاصطناعي والتي منها: 

تحيز الذكاء الاصطناعي

المثال

التوضيح

العنصرية في نظام الرعاية الصحية الأمريكي

– عادةً ما تعمل أنظمة الذكاء الاصطناعي -المدربة على بيانات غير متكافئة- بشكل سيئ في نظام الرعاية الصحية الأمريكي بالنسبة للأقليات.
 

– في عام 2019، وجد باحثون أن الخوارزمية المستخدمة في المستشفيات الأمريكية للتنبؤ بالمرضى الذين سيحتاجون إلى رعاية طبية إضافية فضلت المرضى البيض على نظرائهم السود بهامش كبير.
 

– ولأن التكلفة المرتفعة تؤكد على احتياجات الرعاية الصحية للفرد، فقد أخذت الخوارزمية في الاعتبار نفقات الرعاية الصحية السابقة للمرضى للتفضيل بينهم.
 

تصور الرؤساء التنفيذيين

– تشكل النساء 27% من الرؤساء التنفيذيين في الولايات المتحدة، ولكن وفقًا لدراسة أُجريت عام 2015، فإن 11% فقط من الأفراد الذين ظهروا في بحث صور جوجل عن مصطلح “الرئيس التنفيذي” كانوا من النساء.
 

– وبعد بضعة أشهر من الدراسة، أجرى باحث من جامعة كارنيجي ميلون في بيتسبرج دراسة أخرى.
 

– وجدت تلك الدراسة أن نظام الإعلان عبر الإنترنت الخاص بـ”جوجل” يعرض الوظائف ذات الأجور المرتفعة للذكور أكثر بكثير من النساء.
 

التوظيف في “أمازون”

– لعبت الأتمتة دورًا حاسمًا في تفوق “أمازون” في التجارة الإلكترونية، سواء تلك الأنظمة التي تم استخدامها في إدارة المستودعات أو لاتخاذ خيارات الأسعار.
 

– لكن يزعم بعض الأفراد أن أداة التوظيف التجريبية للشركة استخدمت الذكاء الاصطناعي لإعطاء تقييم للمتقدمين لشغل الوظائف تتراوح من نجمة واحدة إلى خمس نجوم.
 

– اكتشفت الشركة فيما بعد أن نظامها الجديد لا يقيم المتقدمين لوظائف تطوير البرمجيات وغيرها من المناصب الفنية بطريقة محايدة بين الجنسين، حيث يتحيز بشكل غير مباشر ضد النساء.

 

تعتبر المعالجة الجيدة للبيانات أمرًا أساسيًا للتأكد من أنها تتضمن كافة العينات قبل تدريب نموذج الذكاء الاصطناعي عليها. كما يجب التحقق من صحة النماذج الرياضية والإحصائية المستخدمة في الخوارزميات، والتأكد من اختبارها على جميع العينات المتنوعة.

من المهم أيضًا عدم الاعتماد بشكل كامل على الذكاء الاصطناعي في حل المشكلات المتعلقة بالتمييز العنصري، والاقتصار على استخدامه في المهام الأولية أو المساعدة، دون الخوض في جذور المشكلات التي يسعى المستخدم لحلها.

وفيما يتعلق بالقضايا غير المتفق عليها علميًا، يجب التعامل معها بشكل مستقل بعيدًا عن الذكاء الاصطناعي، حيث ينبغي تحكيم العقل البشري لتحديد الأنسب في كل حالة.

 

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى