أنظمة التعرف إلى الوجوه.. ليست أهلاً للثقة

علوم وتكنلوجيا 2019/12/30
...

واشنطن / أ ف ب
 
أظهر تقرير حكومي أميركي أنَّ أنظمة التعرف إلى الوجوه ليست أهلا للثقة على الدوام خصوصاً مع الأشخاص غير البيض، ما يعزز الشكوك بشأن أهمية استخدام هذا التكنولوجيا المعتمدة على الذكاء الاصطناعية.
 
تعريف خاطئ
وخلصت هذه الدراسة التي حلل معدوها عشرات الخوارزميات إلى أن نظام التعرف إلى الوجوه يقدم تعريفا خاطئا للأشخاص الآسيويين أو السود أكثر بمئة مرة من أولئك البيض.
كما رصد الباحثون في معهد "ناشونال إنستيتيوت أوف ستاندردز أند تكنولوجي" التابع للحكومة الأميركية، خوارزميتين كانتا تعرّفان خطأ عن جنس النساء السوداوات في 35 % من الحالات.
وتُستخدم تقنية التعرف إلى الوجوه على نطاق واسع من جانب السلطات وقوات الأمن والمطارات والمصارف والمتاجر والمدارس. كما أنها تُستخدم في فتح الهواتف الذكية.
 
قرصنة البيانات
ويحاول ناشطون حقوقيون وباحثون كثر الحد من الاندفاعة الكبيرة في استخدام هذه التقنية، معتبرين أن الخوارزميات تقترف الكثير من الأخطاء وأن بعض الأبرياء قد يجدون أنفسهم في السجن فضلا عن خطر قرصنة قواعد البيانات واستخدامها من جانب مجرمين.
وقد سجلت الخوارزميات المطورة في الولايات المتحدة معدلات خطأ أعلى مع الآسيويين والأميركيين من السود أو المنتمين إلى قبائل السكان الأصليين، بحسب الدراسة التي أشارت في المقابل إلى أن الخوارزميات المطورة في بلدان آسيوية بدت قادرة على التعرف على وجوه الآسيويين والبيض بالدقة عينها.
وقال مدير البحث باتريك غروثر إن "هذا الأمر مشجع لأنه يظهر أن استخدام قاعدة بيانات أكثر تنوعا يتيح تحقيق نتائج أفضل".
إلا أن "الاتحاد الأميركي للحريات المدنية" (إيه سي أل يو) وهو منظمة حقوقية غير حكومية نافذة، اعتبر أن هذه الدراسة تثبت قبل أي شيء أن هذه التكنولوجيا ليست متطورة بالمقدار الكافي ويتعين تاليا عدم استخدامها.
وقال المحلل في هذه المنظمة جاي ستانلي "حتى العلماء الحكوميون يؤكدون أن تكنولوجيا المراقبة هذه دونها عيوب ومنحازة".
وأضاف "التعرف الخاطئ قد يؤدي إلى تفويت موعد طائرة أو إلى استجوابات بلا نهاية أو وضع على قائمة الأشخاص الواجب مراقبتهم إضافة إلى توترات مع عناصر الشرطة وتوقيفات بلا أساس أو ربما أسوأ".   
 
دراسة "مضللة"
ولم تقدم شركة أمازون - التي تبيع منتجها للتعرف على الوجه والمسمى Rekognition إلى الشرطة الأميركية - أي نظام حسابي للمراجعة.
وكانت قد وصفت، في السابق، دراسة من معهد ماساتشوستس للتكنولوجيا بأنها "مضللة"، بعدما أشارت إلى أن أداء Rekognition كان سيئا، عندما يتعلق الأمر بالتعرف على النساء ذوات البشرة السوداء.
وعند مطابقة صورة معينة مع صورة أخرى للوجه نفسه - وهو ما يُعرف باسم مطابقة الشخص بنفسه - فإن العديد من الخوارزميات التي وُضعت قيد الاختبار قد أخطأت، في التعرف على الوجوه الأميركية من أصل أفريقي والوجوه الآسيوية، بمقدار 10 إلى 100 مرة أكثر مقارنة بالخطأ في التعرف على الوجوه القوقازية، وذلك وفقا للدراسة.
وكانت الإناث الأميركيات من أصل أفريقي أكثر عرضة للخطأ في تحديد هوياتهن، في ما يسمى المطابقة بين شخص وآخرين، وهو مقارنة صورة معينة لشخص ما بصور العديد من الأشخاص الآخرين في قاعدة بيانات.
وارتكبت الأنظمة الحسابية خلال الدراسة نوعين من الأخطاء:
خطأ إيجابي: حين يعتبر البرنامج أن صور شخصين مختلفين هي صور شخص واحد.
خطأ سلبي: حين يُخفق البرنامج في مطابقة صورتين مختلفتين للشخص نفسه.
واستخدم البرنامج صورا من قواعد البيانات، التي توفرها وزارة الخارجية ووزارة الأمن الداخلي ومكتب التحقيقات الفيدرالي، من دون الاعتماد على أي صور من وسائل التواصل الاجتماعي أو المراقبة بالفيديو.
 
فروق ديموغرافية
وقال غروتر: "رغم أنه من الخطأ عادة إصدار تأكيدات عبر الخوارزميات، إلا أننا وجدنا أدلة تجريبية على وجود فروق ديموغرافية، في غالبية خوارزميات التعرف على الوجوه التي درسناها".
وأضاف: "رغم أننا لا نستكشف الأسباب التي قد تسبب هذه الفروق، فإنَّ هذه البيانات ستكون ذات قيمة بالنسبة لواضعي السياسات والمطورين والمستخدمين النهائيين في التفكير في القيود والاستخدامات المناسبة لهذه الخوارزميات".
وقالت إحدى الشركات الصينية المشاركة في الدراسة، وهي شركة SenseTime التي تبين أن خوارزمياتها غير دقيقة، إن ذلك نتيجة "أخطاء" تمت معالجتها الآن.
وقال متحدث باسم الشركة: "النتائج لا تعبر عن منتجاتنا، لأنها تخضع لاختبارات شاملة قبل الدخول إلى السوق. وهذا هو السبب في أن جميع حلولنا التجارية تبلغ درجة عالية من الدقة".
يذكر أن السلطات المحلية في العديد من المدن الأميركية، بما في ذلك سان فرانسيسكو وأوكلاند في ولاية كاليفورنيا، وسومرفيل في ولاية ماساتشوستس، حظرت استخدام تقنية التعرف على الوجه.