وعلى الرغم من بساطة التجربة، إلا أنها غيرت كل شيء بالنسبة لعالِمة الكمبيوتر الأمريكية ذات الأصول الغانية؛ إذ بات هدفها بحث مدى تحيُّز الذكاء الاصطناعي حول العالم تجاه الأعراق المختلفة، وركزت على منصات وبرامج التعرُّف على الوجه، وأنشأت "رابطة العدالة الخوارزمية" التي تسعى منذ 2017 إلى دمج أكبر قدر من الوجوه المختلفة في قواعد البيانات وضمان عمل تلك البرامج بصورة دقيقة لا تختلط فيها صورة امرأة برجل لمجرد أنها سوداء البشرة.
تلخص العبارات البسيطة التي تتصدر الصفحة الرئيسية للموقع تلك الحالة الجدلية التي يثيرها الذكاء الاصطناعي قائلةً: تُستخدم أنظمة الذكاء الاصطناعي في أمور كثيرة من أوجه حياتنا اليومية، وفي حين أن تلك الاستخدامات تبشر بالخير، إلا أنها يمكن أن تضر الأشخاص المستضعفين والمهمشين، وتهدد الحقوق المدنية، ويمكن لأنظمة الذكاء الاصطناعي غير الخاضعة للرقابة، وغير المنظمة، وفي بعض الأحيان غير المرغوب فيها أن تضخم العنصرية والتمييز على أساس الجنس وأشكال أخرى من التمييز.
لقد باتت تقنيات الذكاء الاصطناعي تتحكم في أغلب معاملات البشر، غير أنه كلما اتسعت رقعة استخدامها، تزايدت المخاوف تجاهها؛ ما جعل بعض الباحثين والمطورين يركزون على الوجه الآخر لتلك الخوارزميات، وكيف باتت تتحيز تجاه البعض وسط تحذيرات من ألا يتوقف الأمر فقط عند التعرف على الوجه بشكل خطأ عبر منصةٍ ما؛ إذ إن قواعد البيانات متصلة بعضها ببعض، وربما يؤدي هذا إلى اتهام شخص بجريمةٍ لم يرتكبها لأنه يُشبه شخصًا آخر.
تعليق